Вторник, 12.12.2017, 05:48

Семантическое ядро статьи

Меню сайта

Календарь
«  Декабрь 2017  »
ПнВтСрЧтПтСбВс
    123
45678910
11121314151617
18192021222324
25262728293031
Наш опрос
Что вам нравится в копирайтинге?
Всего ответов: 75
Статистика

Онлайн всего: 1
Гостей: 1
Пользователей: 0

Семантическое ядро статьи

Семантическое ядро статьи, как оно формируется

Удобный вариант — подбор ключей и оптимизация статьи с помощью сервиса Яндекс.Вордстат. Аналогичный сервис есть у поисковой системы Google. Немногие авторы используют программы и прочие веб-сайты, чтобы подобрать ключевые фразы и сформировать семантическое ядро статьи.

Оптимизация нужна для выхода в ТОП. Для статьи подобрано несколько ключевых фраз, она попала на первую страницу выдачи, но читателей мало. Яндекс быстро понижает страницы, если по ним переходов меньше, чем на сайты, занимающие нижние позиции. Завоёванное место легко потерять.

Причина в том, что собраны не все возможные запросы, или ответ на них не раскрыт полностью. Это грозит потерей трафика до 70 %.

Как собрать семантическое ядро для статьи

Чтобы собрать полноценное СЯ статьи, потребуется много времени, работа с сервисами и программами.

Создание семантического ядра по шагам:

  1. Сбор запросов на сервисе mutagen.
  2. Парсинг запросов.
  3. Сбор поисковых подсказок.
  4. Ручная очистка.
  5. Сбор базовых частотностей и уточнение показателей.
  6. Завершающий этап.

Семантическое ядро: инструкция по сборке

1. Работа с сервисом mutagen.ru

Сервис платный. Стоимость одного запроса 0,02 рубля. В 30 рублей обойдётся 100 проверок. Сайт собирает поисковые запросы Yandex, показывает их конкурентность, формирует шлейфовые или хвостовые запросы, которые называют шлейфами и хвостами.

Подбирая запрос, нужно помнить, что любой термин имеет несколько разных названий, включая синонимы. При создании СЯ учитывают все варианты.

Вводят первый запрос и анализируют результат:

  1. Уровень конкуренции сервис рассчитывает по собственному алгоритму. Нужно подбирать запросы, не превышающие значение 5, максимум 10. Если конкуренция выше, намного сложнее статью продвинуть в ТОП.
  2. Число хвостов. Если их много, придётся глубже раскрывать тему в статье.
  3. Частотность можно дополнительно проверить в Вордстате.

По умолчанию бесплатно показывается 50 хвостов. Если их намного больше, нажимают кнопку оплаты (1 рубль за 1000). Рядом с каждым хвостом указана базовая частотность. Её уточнённые значения могут быть намного меньше.

Последовательно вводят все запросы и обращают внимание на уровень конкуренции. Высококонкурентные варианты нет смысла использовать. Их заменяют более подходящими, которые позволят собрать больше трафика без особой конкуренции.

По результатам исследования выбирают основной запрос, включают его в title и description. Далее экспортируют запросы, нажимают кнопку «Экспорт хвостов без статистики» и сохраняют результат на компьютере.

2. Парсинг запросов

Создание семантического ядра по шагам продолжается в программе SlovoEB. Она бесплатна, но работает только с версией Microsoft .NET Framework 4. При первом запуске выставляют необходимые настройки. Значение показателя сбора частотности в окне «от» меняют по ситуации.

  • Частотность по mutagen превышает 1000, выставляют примерно 20.
  • Меньше тысячи — подойдёт 10.
  • Для небольших значений, менее 30, ставят 5.

Чем выше указана цифра для сбора частотности, тем дольше будут длиться процесс парсинга. Он может растянуться на несколько часов.

При первом запуске программы выбирают опцию «Создать новый проект», дают ему название и указывают папку на ПК для сохранения. Настройки региональности применяют, если сайт продвигается в определённом регионе.

Выбирают сбор запросов из левой колонки wordstat.yandex. В поле вставляют запросы, полученные на Мутагене, каждый запрос пишется с новой строчки. Введя все запросы, дают команду «Начать сбор». Если операция прервалась по техническим причинам — например, исчез интернет — можно продолжить, нажав кнопку «Продолжить сбор».

3. Сбор поисковых подсказок

Производится одновременно с парсингом. Вводят основной запрос, выбранный для Тайтла. По умолчанию программа собирает данные из двух главных поисковых систем. С остальными работать не обязательно. Запускают сбор, через несколько минут получают результат. Время сбора разное, зависит от популярности тематики.

4. Ручная очистка запросов

Прога выдаёт несколько сотен запросов. Многие из них лишние. Есть такие, что совершенно не подходят к теме: википедия; упоминание компаний, городов; слова «цена, отзывы». Их помечают ненужными, затем удаляют. После чистки останется намного меньше запросов.

В этом пункте создания семантического ядра по шагам применим другой способ: кнопка «Стоп-слова» позволяет указать нежелательные слова. Их перечисляют в виде списка или загружают из файла. Каждое слово пишется на отдельной строке. После сбора запросов дают указание «отметить фразы в таблице». Программа помечает все указанные мусорные слова, останется их удалить.

5.Сбор базовых частотностей

В разделе «Сбор данных» есть изображение лупы. Кнопка скрывает опцию «Сбор базовых частотностей». Запускают процесс. Когда он завершится, нажимают «Сбор уточнённой частотности».

Показатели базовой частотности включают запросы с синонимами и различными словоформами. Уточнённая частотность сообщает, сколько раз пользователи вписывают запрос в неизменном виде. Эта цифра подскажет заказчику, какой трафик принесёт статья.

Копирайтер получает много подсказок. Из них выбирает, какие запросы и фразы использовать в статье, на какие ключи сделать упор, что использовать вскользь, чтобы глубже раскрыть тему. Запросы с небольшой частотностью подскажут, как сформулировать дополнительный абзац, если объём текста большой, а особо писать по этой теме нечего.

Удалять запросы с нулевой и совсем низкой уточнённой частотностью не стоит. Их нужно проанализировать, перевести на «человеческий язык» и использовать в статье.

6.Завершающий этап

Частотности собраны, лишние и мусорные запросы убраны. Теперь можно экспортировать полученный результат. В полученной таблице сортируют колонку с уточнёнными запросами по убыванию. Удаляют неподходящие и одинаковые значения. Запросы с нулевой частотностью перепроверяют в Вордстате. Пустышки удаляют.

Затем убирают повторяющиеся слова в разных запросах, оставляя неповторяющиеся. Их используют в статье наряду с ключами. Среди запросов есть шлейфы, которые можно просто вскользь употребить в тексте или раскрыть более подробно в 1-2 абзацах.

Если в таблице есть запросы с частотностью выше 30 и уровнем конкуренции до 10, под них лучше создать отдельные статьи и перелинковать друг с другом.

Краткий повтор: семантическое ядро, инструкция

  1. На сервисе Мутаген выявить основной запрос с уровнем конкуренции до 10–20. Уточняют его частотность. Она должна быть 10–15.
  2. Найденные хвосты экспортируют в текстовый файл и сохраняют на ПК.
  3. Собранные запросы копируют, добавляют в левую колонку Wordstat в программе SlovoEB.
  4. Собирают все поисковые подсказки.
  5. Удаляют мусор и повторы запросов.
  6. Выявляют базовую и уточнённую частотности.
  7. Экспортируют таблицу в Excel.
  8. Производят сортировку по убыванию, уточняют частотность запросов-пустышек с нулевым значением в Яндекс.Вордстате.
  9. Из всех собранных запросов удаляют одинаковые фразы, оставляя отдельные слова.

Инструкция, как собрать семантическое ядро статьи, завершена. Процесс требует длительного времени, в зависимости от настроек. Собранная информация поможет копирайтеру написать качественную статью.

При написании задействуют слова из Excel-таблицы. Они помогут полнее раскрыть тему. Получается релевантная статья, дающая полноценный ответ на вопрос пользователя. Она полностью соответствует принципам LSI, даст хороший трафик.

PS

Скриншоты сервиса и программ намеренно не прилагаются. Райтеры должны уметь быстро разобраться во всём самостоятельно.

Материалы сайта «Работа копирайтером» в помощь создателям текстов:

Яндекс.Метрика