Чистка семантического ядра в программе Key Collector

Чистка семантического ядра в Key Collector

НИКОГДА! АБСОЛЮТНО! НИ В КОЕМ РАЗЕ НЕ УДАЛЯЙТЕ НИКАКИЕ ФРАЗЫ

Вот этот красный крестик не нажимайте. Если вы через полгода решите пересобрать ядро, то вы опять соберете тыщи мусорных фраз и опять будете их чистить.

Если вы случайно удалите фразы - то всё. Тут нет +

Совсем не нажимайте

Первое — мы идем в анализ групп и сверху вниз пробегаемся по словам, которые точно лишние, их добавляем в стоп слова, отмечаем их и переносим в группу «шлак»
Тут рекурсия.
В кей-коллекторе с 2018 года уже автоматически в новом проекте создается группа "Корзина", раскрашенная в красный цвет.
На скриншоте видно, что я одним махом могу добавить в стоп-слова сразу несколько слов:

  1. профиль
  2. профилей
  3. профиля
  4. профилю
  5. профили
  6. профилем
  7. профилям

И когда я это сделаю, я удалю 446 фраз из семантики. Это лучший способ первичной чистки СЯ. Причем я выделяю первых 5-10 фраз и после перемещаю в корзину, чтобы уменьшить мусорность семантики. Например удаляя "Леруа" удалятся все фразы содержащие "мерлен". А вот наоборт - вряд-ли. Хотя эта тактика не очень оправдана, если вы хотите собрать максимально расширенный список стоп-слов для рекламных компаний в директе. Решайте сами. И таким образом я прохожу до фраз с частотностью 1. Их не трогаю.

Делим ядро на разделы.
Тут просто создаем условие по фразе и переносим в группу. Насколько мало группировать — дело ваше. И вот потом с этими группами начинается АД. Я уже писал про ад? Ну тогда второй круг.

Хочу объяснить, почему не дочистив семантику мы уже начинаем группировать её. Есть такой метод, при котором большую работу разбивают на этапы и выполняют поэтапно. Это психологически проще. Вы садитесь сделать небольшую работу, например почистить семантикув 300 слов, а не 14000. Этому даже придумали название "слон и бифштекс". Вы сначала разбиваете семантику на категории, а потом чистите каждую категории. А основной шлак вообще останется без категории. Какие категории - это на выш выбор. Да хоть просто разделить семантику на группы по 341 запрос в каждой группе.

Открываем категорию и начинаем читать наши ключевики, которые не наши — переносим в шлак. Если вопрос — кликаем с контролом и смотрим, что в выдаче поисковика.
У меня на этом этапе закон такой 5000 фраз в день. Почему 5000 — ну в среднем у меня лично после 5 тысяч устают глаза, в голове бардак и начинает всё раздражать. У вас эта цифра может быть другой. Спим. Рекурсия, пока всё не проверим.

Ну вот у нас уже собрано серьёзное ядро и мы начинаем определять нулёвки (дадада) мы должны собрать нулёвки, потому что они сегодня ноль, а завтра 10. Бывали случаи. Знаю гуру сео говорят, что не надо собирать нули, но я не гуру. Я просто СЕОшник с опытом.
Тоесть тупо собираем частоты вордстата.

Собранные нулёвки проверяем на сезонность. Те что несезонны — переносим в группу WS<1, сезонные переносим в WS<1 сезон
Оставшуюся часть ядра заряжаем на прверку частот, кеев, вконтактиков и прочего.

Так . Тут я решил закончить ... дабы не утомить никого. По сути всё. Мы собрали с вами семантическое ядро, почистили и разобрали по категориям. А вот что с ним делать будет в другом материале.




© 2016–2019 Харитонов Павел