Антон Рева

Антон Рева
Boosta

SEO Team Lead в Boosta

  • 12+ досвіду в SEO
  • Успішна робота з великою кількістю ніш у клієнтському SEO
  • Основні ніші на даний момент: Education (топові проекти), Affiliates sites

Boosta – міжнародна мультипродуктова IT-компанія, що розробляє та просуває на західних ринках SEO-інструменти та освітні проекти.

Виступи спікера

img НаЗахід 17

Як знаходити правильні сайти для аналізу в будь-якій ніші

Перед аналізом потрібно чітко розуміти навіщо це робити:

  • Заходимо в нішу
  • Створюємо-доповнюємо структуру сайту
  • Прокачуємо продуктову складову
  • Адаптуємо посилальну стратегію

Для пошуку конкурентів для аналізу, потрібно здійснити ресерч лідерів у ніші та визначити ключові сайти для аналізу.

Які існують сервіси для пошуку конкурентів?

  • Ahrefs
  • Semrush
  • Serpstat
  • SpyFu
  • QuickSprout
  • Similarweb
  • Alexa
  • Megaindex
  • Cognetive SEO
  • SpyWords
  • iSpionage

Потрібно вивчити Google і зробити аналіз за ВЧ, СЧ, НЧ. Але краще власна семантика.

Чому?

  • Максимально детальний аналіз саме того, що потрібно
  • Своя частка ринку за конкурентами, а не загальні дані сервісів
  • У будь-якому разі вона вам потрібна для створення лендінгів
  • Приклад: 1000$ профіту без особливих зусиль

Витрачено: контент + посилання = 700$

Дохід від партнерки: 1700$

Збір семантики і визначення основних конкурентів у ніші

Детально про це на одному з минулих NaZapad: https://www.youtube.com/watch?v=zU-fOox1cVo

Швидкий аналіз ніші: тоді просто Ahrefs по 3-5-7 конкурентам

Алгоритм (ідеальний) дій:

  • Визначити слова, що утворюють
  • Зібрати запити:
  • Статистика пошукових систем
  • Пошукові підказки/схожі фрази
  • Семантика з історії
  • Семантика конкурентів
  • Групування запитів
  • Чищення запитів

Інструменти збору запитів:

1. Пошукова статистика

Goodle Adwords

пошукові підказки

схожі запити

2. Внутрішня статистика сайту:

Google Search Console

Google Analytics

3. Пошукові запити конкурентів:

Semrush

Ahrefs

SerpStat

SimilarWEB

Як виглядає на практиці

А як отримати такий файл?

Видимість = частка ринку: Отримуємо на етапі збору та обробки ядра
Параметри доменів: Парсимо різні джерела даних. Що саме, трохи далі. Парсити допомагають: A-Parser, Netpeak Checker + спеціальні скрипти
Динаміку по трафіку: Будь-яке джерело, яке вам доступне з динамікою трафіку.

Приступаємо до аналізу. Дивимося лідерів ніші і загалом прицінюємося. Дивимося на вік доменів і на основні витратні моменти для звичайного сайту (кількість контенту і посилань). І відразу знаходимо конкурента для аналізу:

“Наймолодший” із топових
Швидко злетів
Невелика кількість сторінок і посилань

Загальні підсумки

Є розуміння щодо загальної конкурентності в ніші та динаміки сайтів у ній
Якщо у вас є вже сайт, то ви можете оцінити вашу частку ринку на поточний момент + виділити схожих конкурентів на основі параметрів

Аналіз ніші: запуск нового сайту

  • Whois Creation: дивимося нові сайти
  • Фільтруємо за датою реєстрації доменів і дивимося, що змогли вичавити нові сайти з ніші
  • Аналогічно, фільтруємо за датою першої появи в Web Archive
  • Вибираємо найкращий зі свіжих сайтів
  • Непогана динаміка
  • Багато ключових фраз у топ 1-3-10

Фільтруємо -2 роки, щоб у проєктів не було трафіку. Потрібно бути обережним, можуть бути нюанси: в теорії міг би бути і цікавим сайтом, але переклейка.

Загальні підсумки

  • Є розуміння щодо того, чи можна потрапити в топ “швидко”
  • Яка кількість таких сайтів і яка загалом ймовірність потрапити в топ
  • Які ресурси та фішки використовують молоді сайти

Аналізуємо сайти з топ 1-3-5-10. Дивимося кому ПС прям сильно довіряє. Для сторінок, які в топі, більше наголос уже на продуктову і концертну складову. Щодо сайтів: зрозуміти фішки (може “нішування” та/або чіткий фокус конкурента на кластер), які такі сайти привели до топу. І уважно дивимося такі сайти, навіть якщо в них по 1-3 запити. І Мега фокус на ті сайти, які потрапили в топ10 + досить свіжі.

Загальні підсумки

  • Отримуємо розуміння різних нюансів ніші за всіма топовими сайтами як у топ 10, так і в топ 3-1
  • Розуміємо як швидко і за рахунок чого можемо отримати перший профіт

Враховуємо регіональність

  • Намагаємося зрозуміти розподіл трафіку за країнами
  • Дивимося, чи можна отримувати топи одночасно в різних країнах чи ні
  • Якщо ні, то знаходимо сітки і вивчаємо нюанси, які ви могли пропустити
  • Для старту фокусуємося на сайтах з одного-свого регіону = це дрібніший (Канада, Австралія < США, Австрія < Німеччини, …)

Аналіз за типами пристроїв

  • Розуміємо, який тип пристроїв переважає
  • Відповідно розуміємо первинний фокус оптимізація дизайну-продукту в цілому
  • Фокус на сайти з переважаючим для аналізу трафіком

Аналіз типу трафіку за джерелом

  • Намагаємося зрозуміти розподіл трафіку за типом джерела
  • Виокремлюємо ті сайти для аналізу, де потрібний тип джерела трафіку має значущу частину або в процентному, або кількісному розмірі
  • Йдемо на SimilarWeb для глибшого аналізу

Аналіз продуктової складової

  • Шукаємо сайти з хорошими поведінковими для вашої ніші
  • Варто розділяти за типами сайтів: окремо афіліатські сайти і окремо продукти

Вибір конкурентів для аналізу контенту

  • Важливо розбити сайт-семантику на контентні групи
  • У межах кожної з таких груп визначаємо своїх лідерів
  • Ресерчимо й аналізуємо фішки

Що дивимося

  • Структура сторінки
  • Принципи формування основних зон документа: title, desctiption, header, sidebar, footer
  • Тип використовуваного контенту
  • Перелінковка між сторінками та групами сторінок
  • Які елементи контенту дають можливість сторінкам розширювати сніппет: таблиці, списки, розмітка

Класифікація за типами, збір параметрів донорів – Детально про це на одному з минулих NaZapad 11

Вивантаження всіх посилань із різних джерел

  • Ahrefs
  • Majestic
  • Moz
  • PublicWWW
  • [email protected] – приховані посилання

Якщо взяти в першому наближенні, то просто за кількістю доменів і DR

  • Типи посилань – Детальний аналіз за типами посилань
  • Типи анкорів – Детальний аналіз за типами анкорів
  • Типи сторінок на які посилаються – Відсотковий розподіл зворотних посилань на різні типи сторінок конкурентів
  • Тематичність доменів – Дивимося наскільки важливі / є в наявності тематичні ресурси, дані на основі даних SimilarWeb
  • Тематичність сторінок, що посилаються, – Дивимося наскільки важливо мати тематичні донор сторінки.
  • Дивимося, наприклад, за входженням сем. ядра в title
  • SimilarWeb Rank – Додатково також дивимося і за даними цього сервісу. Відрив двох лідерів ще більший виходить.
  • Вік доменів донорів – З наскільки старих донорів йдуть посилання (дані з Whois)
  • Google Trust – Чому б не звернутися до першоджерела?
  • Majestic – Citation Flow/Trust Flow
  • SEMrush – reg. traffic – Кількість регіонального трафіку
  • Анкори: розподіл за кількістю слів в анкорах – Процентний розподіл за кількістю слів в анкорах
  • Прокачування посилальних сторінок 2-м рівнем – Наскільки активно конкуренти прокачують свої зворотні посилання другим рівнем.
  • Трафік на донорних сторінках – Розуміння чи є трафік на сторінках донорів і в якому співвідношенні.

Що дивимося

Куди посилаються, які параметри та інші характеристики за типами донорів
Як іде робота з комерційними анкорами
Яка посилальна маса стоїть на різні типи сторінок акцепторів
Яка стратегія простановки з найбільш “дорогих типів” посилань (морди, гест пости)
Ще раз додаткова увага на роботи з другим рівнем посилань у різних конкурентів

І так далі за різними параметрами і різними конкурентами. Аналізуємо конкурентів, які просіли. Заодно тестуємо свої гіпотези, які вийшли в результаті аналізу.

Загальні висновки

  • Аналізуємо всіх “основних представників” за різними розрізами
  • Аналізувати варіанти зворотних посилань і контенту, фішок, стратегій
  • Застосовуємо результат

Невелика кількість сторінок і посилань

img НаЗахід 11

Просунутий аналіз посилальної стратегії конкурентів у ніші

img НаЗахід X

Як швидко скласти ефективне сем. ядро з практичними кейсами

Відео конференції