Видео конференции
Практична онлайн конференція
корисної інформації
Видео конференции
SlideShare презентации
Спікер Павло Лисий розповідає у своїй відеодоповіді про проблеми в індексації великих сайтів, що можна імплементувати в цей процес, щоб покращити його.
Ця проблематика охоплює велику аудиторію і трапляється часто. Близько року втрата індексації стала загальною проблемою, тому це питання важливо детально розібрати. Починаємо з причин її появлення:
На нещодавній сеоконференціїї у США, “старійшини” так відгукнулися про цю проблему: довести пошуковій системі, що ваші сторінки цінні для неї. Іншими словами, є висока конкуренція, тому необхідно заслужити право знаходитися в цьому просторі — довести свою корисність.
Як виявити проблемну сторінку? Якщо є проблема зі сторінкою, то у консолі статус проблеми буде чітко визначений, за виключенням деяких випадків.
Особливої уваги можна приділити чотирьом видам сторінок:
Два статуси “Crawled – currently not indexed” і “Discovered – currently not indexed” схожі в тому, що обидва гуглом знаходяться та обидва не індексуються. Відрізняються тим, що до “Crawled” гугл може завітати, а до “Discovered” — ні.
Основними причинами виникнення статусу “Crawled – currently not indexed” можна назвати:
Звернуть увагу, що список не вичерпний, можуть бути і інші проблеми.
Виправити цю проблему можна ручними методами або із залученням third party tools. Дієвим також можна назвати й впорядкування внутрішньої структури сторінки і її технічного боку (внутрішня перелінковка, наскрізні блоки тощо).
Ручна робота з сайтмапами — це не анахронізм, бо це дієво с великими сайтами. Якщо прочитати гуглдовідку, то там наголошена цінність багатокомпонентних сайтмапів для величезного ресурсу. Важливо, сповістити гугл, що він у вас є.
Через Google Indexing API запускаємо процес визначення проблемних сторінок. Цей метод працює на 100%.
Google Indexing API дозволяє будь-якому власнику сайту безпосередньо повідомляти Google про додавання або видалення сторінок. Це дає змогу планувати пошуковій системі їх скасування, що сприяє підвищенню якості трафіку. Краще використовувати саме цей тул, бо він ініціює швидке індексування. Але при необхідності охопленні контенту в повному обсязі, то надсилайте файл Sitemap.
Робота з API має певну послідовність. Починати треба з розбивки на патерни і типології, а потім виокремлення кластеру сторінок, які являються крапками входу для органіки. Отримавши дані про статус індексу, статус щодо crawling, можна переходити до пошуку кореляцій щодо внутрішніх факторів.
Що можна зробити з боку технічки та внутрішньої структури:
Якщо звертатися по допомогу до сторонніх ресурсів, то тут є декілька варіантів:
Найкращий варіант — це використання ресурсів у комплексі. У додатку до вище перерахованих методів ще можна застосувати деякі хитрощі. Верифікуйте домен з префіксом окремим URL проперті в консолі, щоб отримати окремий краулінг бюджет. Спробуйте налити дешевого рекламного трафіку. Використовуйте деякі вордпрес плагіни з фічами Indexing API (наприклад, Rank Math). При довгій відсутності індексації сайтмапи можна перевірити сам УРЛ мапи через Inspect tool в консолі з подальшою подачею її до індексації.
Важливо! Підтвердіть підписку, щоб отримати запрошення на конференцію
Перевірте та підтвердіть свою пошту в базі. Не забудьте підписатися на наші соцмережі.