Как динамично анализировать сотни сайтов в одной нише
План
- Почему именно эта тема, и кому она нужна
- Подготовочные работы
- Компиляция таблицы
- Настройка Netpeak Checker
- Фильтры и проработки отдельных формул
- Коннект Google Sheet с GDS
- Визуализация в GDS
Почему именно эта тема, и кому она нужна
Цель – донести каждому сеошнику, что имея смекалку и небольшие бюджеты, можно сделать крутой тул.
Кто может сделать? – Сеошник даже начального уровня, также как и опытный.
Какие тулы будем использовать? – Google Sheet, Netpeak Checker, Google Data Studio, DigiMetr.
Работа по сбору информации:
- Семантика
- Кластера (работая в определенной нише, каждый сеошник знает ключи и кластера)
- Сбор сайтов и разделение их по типам (review/ info/ product)
- Далее необходимо привести домены в грамотный вид, срезав ненужные символы через формулу “ARRAYFORMULA(REGEXREPLACE(REGEXREPLACE(D2:D2007,”(http(s)?://)?(www\.)?”,””),”/.*”,””))
- D2:D – это ячейка с урлами, которые необходимо почистить
- В новое полу нужно установить conditional format rules – повторные домены будут окрашены в зеленый
Подготовка таблицы для сбора статичных данных
Дату нужно менять каждый раз, когда будет происходить обновление данных по всем доменам
- Дальше нужно заполнить все необходимые данные в таблицу
Для этого нужно настроить Netpeak Checker под нужные поля по Ahrefs.
Затем необходимо выбрать параметры, которые вы будете отслеживать, добавлять в таблицу для последующего анализа.
Фильтр данных. Фильтрация
Создаем страницу с названием определенного типа
В качестве примера, рассмотрим review. То есть необходимо отфильтровать сайты только с типом review
Совет: НЕ начинайте эту страницу с первой же ячейки, у спикера эти формулы стоят в столбце Т.
Для этого используйте 2 формулы
Фильтруем необходимые поля для динамического отслеживания.
Тут спикер отслеживает следующие показатели:
- Domains
- Total Backlinks
- Link per Domain
- Total Keywords
- Total Traffic
- MOZ Rank
- MOZ DA
- Trust Ratio
- Majestic CF
- Majestic TF
Самый напряжный этап – это компиляция таблицы под динамику
Динамический отчет
- Поскольку у нас много доменов то для каждого нам нужно скомпилить микро экосистему в которой наглядно будут показаны переменные
- Экосистема одного сайта из review сайтов (пример)
- Экосистемы сайтов одного типа идентичны
Откуда берутся данные?
- Обновляются данные с двухсотой строки: нужно просто выделить всю строку и вставить в последующую ячейку отчета
- Появляются там данные из предыдущей фильтрованной страницы. И так для каждого сайта из группы (из практики это занимает пару часов)
Подсчет переменных
Формулы, которые помогают определить результаты
- Дальше дублируем под необходимое количество сайтов (под каждый тип) в каждой группе и не забываем учитывать, что сайты будут добавляться со временем.
- Дублируем идеально созданную страницу на другие типы сайтов
- Переходим к компиляции всех данных в одну большую таблицу (all data combine). В данной таблице для визуализации в GDS нужно скомпилить все те горизонтальные данные в одну вертикальную таблицу (это проще и удобнее), и сделать это можно одной формулой, которая собирает данные с определенных ячеек и таблиц:
Рассмотрим небольшой кусочек
={‘review Statistic’!A3:L8;’review Statistic’!N3:Y8}
- Данные тянутся со страницы динамики “review statistic”
- Формула захватывает горизонтальные значения двух сайтов и компилит в вертикальную таблицу .
- Заполняем формулу по одному типу сайтов вручную, потом размножаем на все остальные
- Сама формула находится в строке B2
- Столбец тянется с главной страницы формулой
▸ Важная инфа!
- Когда вы дополняете данные на страницу statistic, то, как мы могли заметить, предыдущая формула захватывала только по 8ю ячейку. При добавлении новых данных вам необходимо будет раскрыть формулу комбинацией ctrl+~ и через cmd+shift+h поменять все цифры 8 на 9 или 10, и новые данные будут захвачены Повторяем данную процедуру каждый раз когда обновляем данные.
Google Data Studio
- Теперь наша цель – визуализация и грамотное чтение данных. Базовые знания о GDS спикер рассказывал на конференции Nazapad 14, потому здесь перейдем сразу к сути.
- Подключить в сорсы нужно только 2 страницы из нашего отчета:
- Data (файлик в котором прям все все данные)
- All data combine (файлик с комбинированными данными с каждой группы)
- При подключении all data combine мы можем расширить пул наших метрик которые мы будем визуализировать
Что это значит?
Каждую числительную метрику мы можем:
- Суммировать: тут все ясно по каждому сайту и типу будем понимать скорость и количество прироста беков, доменов и т.д.
- Вывести максимальное значение (какой сайт/тип лидирует в той или иной метрике)
- Вывести avg. (смотрим среднее значение, если в анализе наша сетка сайтов и по ней avg. растет, мы радуемся и хвалим себя)
Как настраивать?
Любой dimension дублируем и выставляем ему aggregation.
Это можно делать неограниченное количество раз и выстраивать графики.
Переходим к визуализации
Тут уже каждый сам себе дизайнер и под себя будет выстраивать отчеты.
Несколько деталей, на которые стоит обратить внимание
Сразу ясно сколько типов сайтов анализируем и сколько сайтов в целом участвует в анализе
! Не забываем добавить фильтры
- Очень полезно понимать объем ниши по количеству сайтов, какой тип сайтов забирает на себя больше всего кивордов и трафа. Для данного репорта сорс инфы идет из вкладки Data.
- Смотрим на динамику по этим метрикам по каждому типу сайтов. Сорс на эту таблицу идет из all data combine.
- Смотрим на динамику по этим метрикам по каждому типу сайтов. Сорс на эту таблицу идет из all data combine.
- Смотрим на динамику по этим метрикам по каждому типу сайтов. Сорс на эту таблицу идет из all data combine.
- Смотрим на динамику по этим метрикам по каждому типу сайтов. Сорс на эту таблицу идет из all data combine.
Для такого репорта нужно сделать несколько сортировок
Такие же репорты делаем с MOZ и Majestic.
Интересно следить когда случается большой скачок по Trust ratio и копать почему.
Создаем отдельные страницы в репорте под каждый тип сайтов. Такую же страницу можно создавать и под свой сайт, чтобы следить за динамикой изменений.
Тут нужно пошаманить фильтр внутри GDS.
Таким образом мы работаем только с данными по овнеру review
Можно отфильтровать по 1 сайту, и все репорты на странице подстроятся под него. Очень наглядная история прогресса или регресса сайта.
▸ Выстраиваем необходимые нам репорты и следим за динамикой
▸ Выкупаем лидеров в группах на последнее число сбора данных
▸ По необходимости занимаемся микромолекулярной аналитикой
▸ На этой странице есть отдельная таблица по трафу и кивордам по всем сайтам, можно крутить, как хочешь
Важно! Данный отчет будет делать мало кто, однако, для джунов это хорошая возможность, во-первых,многому научиться, и во-вторых,принести реальный велью своей компании.