Сергій Безбородов

Сергій Безбородов
Jetoctopus

15 років в індустріі, з SEO повʼязан із 2016 року

Виступи спікера

img НаЗахід 14

Навіщо системно аналізувати логи сайту і як це допомагає в SEO

Логи – не єдина частина SEO, їх потрібно розглядати разом з іншими: краулами, зовнішніми посиланнями тощо, які формують загальну картину. Для великих сайтів це must have.

У доповіді йтиметься про:

  • SEO Воронку.
  • Накладення даних – Logs+Crawl+GSC+GA+etc.
  • Фактори, що впливають на поведінку бота.
  • Сміття на сайті.

Робота з логами. Перший етап

  • Як отримати ваші логи.
  • Як завантажити логи в інструмент (sf log analyzer, kibana, etc).
  • Перевірити статус коди.
  • Перевірити повільні сторінки.
  • Співвідношення mobile/desktop.
  • Перевірити сплески і падіння краулів.
  • Заблокувати парсилки-скрейпери.

SEO аналітика

Структура сайту

Головне джерело структури сайту – ПОВНИЙ КРАУЛ.

Краула недостатньо – Google/Yandex знає більше про ваш сайт.

Сторінки в логах, але не в краулері. Бот відвідує сторінки, яких немає на сайті, їх немає в сайтмапах і гугл аналітікс.

Сторінки в логах і в краулері – це ок.

Сторінки в краулері, але не в логах – сторінок не буде в індексі.

Перетин датасетів.

Pages with Backlinks NOT IN Crawl Втрачаємо “посилальну вагу”? – ПОГАНИЙ

Приклад з відірваними сторінками.

Чому структура сайту так важлива?

Вплив на поведінку бота

Що робити?

Важливо зрозуміти що саме впливає найсильніше конкретно на вашому сайті.

Приклад

Дано:

– 20k товарів

– 200 категорій

– 10 товарів на сторінці

У середньому: 1000 товарів у категорії => 100 сторінок пагінації

Маємо: Googlebot не краулить далі 10-ї сторінки пагінації, тільки 200*10 = ~2000 товарів буде нормально краулитися

Приклад

Дано:

– 20k товарів

– 200 категорій

– 10 товарів на сторінці

У середньому: 1000 товарів у категорії => 100 сторінок пагінації

Маємо: Googlebot не краулить далі 10-ї сторінки пагінації, тільки 200*10 = ~2000 товарів буде нормально краулитися.

Що робити: Потрібно додавати сторінки підкатегорій, теги, зв’язки фільтрів.

Сміття на сайті

Кожен старий великий сайт складається зі сміття і якісних сторінок.

Що робити?

Аналізуйте і регулярно дивіться топ сторінки.

Який найголовніший KPI роботи

  • SEO таски поставлені девелоперам.
  • SERP позиції.
  • SERP видимість.
  • Трафік.
  • Конверсії.
  • Гроші.