Пошаговый алгоритм сбора семантического ядра. Все ли вы применяете, из того, что давно известно?

Пошаговый алгоритм сбора семантического ядра. Все ли вы применяете, из того, что давно известно?

Семантическим ядром (СЯ) сейчас называют группу запросов, объединенную порядком слов или по смыслу.

Когда нужно семантическое ядро

Семантическое ядро составляют для:

  • Построения правильной навигации по сайту и создания трафиковых категорий
  • Настройки рекламных компаний в Google Adwords и Яндекс.Директ
  • Написания правильных статей на сайт: с ключами и правильной смысловой разбивкой по заголовкам.

В последнем случае составление СЯ особенно актуально. Например, структуру категорий можно подсмотреть у конкурентов, рекламу можно настроить просто спарсив ключи и отминусовав какие-то жесткие слова — у каждого, кто настраивает рекламу, есть общий список минус-слов.

Писать статью, не имея ТЗ для копирайтера — бессмысленно. Он может не разбираться в теме, не понять, чего вы ожидаете и написать отсебятину. Тема не будет раскрыта, статья не будет интересна и у нее будут плохие поведенческие. Смысла в написании такой статьи нет.

Workflow составления семантического ядра

Источники ключевых слов

Где брать ключи — первый вопрос, на который вы должны знать ответ. Их можно спарсить или выгрузить:

  • Key Collector — основной инструмент парсинга, он собирает актуальную информацию из поисковиком и ваших систем аналитики (Метрика, ГуглАналитикс)
  • Сервисы видимости сайта — Мегаиндекс, key.so, SerpStat, RushAnalitics, много других — дают общую картину, какие ключи  дают трафик сайту.
  • Базы MOAB, Пастухова, Букварикс. Первая и вторая платная, причем Пастухова не очень актуальна и там полно мусора.

1. Сбор ключей через Вордстат

Итак, через Вордстат (с использованием плагина Yandex Wordstat Assistant) собираем 10-50 ключей, которые будем парсить через KC (Key Collector). Больше слов сначала соберем — больше НЧ и хвостов получим на выходе.

Сколько изначально ключей парсить — зависит от того, что мы на выходе хотим получить. Если нужно наиболее полную статью — значит, нужно больше хвостов собрать.

2. Парсинг и чистка списка ключей в KeyCollector

Тут все просто — парсим все, до чего можем дотянуться: левая (иногда и правая колонка вордстата), поисковые подсказки, Rooke, Mutagen — к чему только есть доступ. После этого — чистим. Предварительно, не забываем указать регион парсинга.

Пошаговый алгоритм сбора семантического ядра. Все ли вы применяете, из того, что давно известно?

Если сложно разобраться в Коллекторе — хороший курс выпустил Роман Пятнко. Если влом во всем этом разбираться — можете заказать сбор ядра.

На этапе чистки и кластеризации — основная потеря времени. Однако, это дело можно автоматизировать. Чистку можно ускорить, если использовать советы от Михаила Шакина.

Пошаговый алгоритм сбора семантического ядра. Все ли вы применяете, из того, что давно известно?

Тут нет причины повторяться, но если заниматься на постоянной основе, то нужно всегда держать под рукой список слов, которые нужно минусовать в любом проекте: все эти 6 букв (когда люди кроссворды разгадывают), www, купить щенка, 2012, 2013 и прочий мусор.

Чистка мусора в Key Collector

Какие ключи обычно стоит удалять

  1. которые содержат топонимы не вашего региона
  2. явно мусорные на основе анализа групп и неявных дублей
  3. названия крупных магазинов, варианты написания запроса на латинице, а часто почти все запросы, если это не названия брендов
  4. ключи из 8 слов или те, у которых запрашиваемость — 0. Выяснить это можно, если собрать частотность, но — внимание!!! — некоторые запросы могут быть сезонными

3. Кластеризация и группировка запросов

В результате всего этого останутся только 30-40% годных запросов.

Далее их нужно группировать — это можно сделать вручную: полностью, ручками, в экселе — до утра и без обедов и перерывов. Можно еще использовать сервисы по типу Keyword Assistant, но мне больше нравится Кейса, а так можно использовать любой, который понравится.

Можно пойти еще дальше и использовать кластеризацию по топам. За основу группировки запросов берется анализ поисковой выдачи. Тут более подробно, если кому интересно.

Дешевле это делать через Раш-Аналитикс, к примеру. К стати, что касается Раш-аналитикса, то сервис перспективный, хорошо растет. Учитывая, что было год-два назад, много что улучшили.

rush-analytics - кластеризация по топам

4. Составление ТЗ копирайтету

Финиш. Тут начинается творческая работа. Обязательно отмечаем, какие в статье должны быть подзаголовки, а если копирайтер опытный, то можно его вообще попросить написать текст с HTML-разметкой. Если нет шаблона ТЗ — свободно гуглится: что-то типа «пример ТЗ копирайтеру». Правим тот шаблон, что нашли и отправляем на копирайтинг.