Скачать книгу

словами.

      Например, вы ввели в строку поиска «LSI-копирайтинг». Робот найдет множество страниц со сходными терминами и аббревиатурами, названиями организаций. Но в результатах выдачи на первых местах будут качественные статьи про SEO и LSI-тексты. Все остальное – на последних страницах.

      Теперь перейдем к LSI-копирайтингу – это написание текстов, основанных на технологии скрытого семантического индексирования. То есть таких текстов, в которых важно не наличие ключевого слова, а содержание.

      Разница между традиционным SEO-копирайтингом и инновационным LSI-копирайтингом в нескольких словах:

      SEO-копирайтинг

      – Написание текста на основании списка ключевых слов (с обязательным их вхождением в теги, заголовки, первые абзацы).

      – Работа с плотностью ключевых слов в тексте.

      – Работа с технической уникальностью.

      LSI-копирайтинг

      – Написание текста на основании списка ключевых слов (с упором на смысл, а не на вхождение этих ключей).

      – Добавление в текст слов, которые связаны с основными запросами.

      – Работа над полезностью и смысловой уникальностью материала.

      Когда поисковые роботы стали применять LSI?

      Латентно-семантический анализ запатентовали в далеком 1988 году. Однако поисковые системы начали постепенно внедрять LSI примерно 5 лет назад.

      В 2011 Google стал использовать поисковый алгоритм Панда. Его цель – борьба с текстами плохого качества. Панда оценивает взаимодействие пользователя с сайтом – уровень вовлеченности человека при изучении определенной страницы.

      При формировании мнения человека о странице основную роль играет текст. Поэтому при введении Панды выдача избавилась от кучи сайтов с некачественным контентом – публикациями, которые были созданы не для людей, а для вписывания ключевых слов.

      В 2013 Google внедрил алгоритм Колибри. С этого момента поисковые запросы обрабатываются не только по ключам, но и по смыслу. Однако это не конец – в 2016 процесс поиска усовершенствовали, ввели сигнал ранжирования RankBrain, своего рода искусственный интеллект, который должен уметь понимать не отдельно смысл каждого слова и даже не общего содержания, а суть всей фразы целиком.

      Нововведение связано с тем, что люди начали вводить в строку поиска лаконичные запросы с ключами, а также стали использовать «естественные» запросы – фразы из разговорной речи, порой длинные и сложные.

      Схожая ситуация наблюдается и в Яндексе. В ноябре 2016 года Яндекс порадовал нас алгоритмом Палех. Из-за чего интерес к написанию LSI-текстов резко возрос.

      Поисковики все сильнее обращают внимание на содержание, а не на технические показатели (наличие ключей, количество вхождений и т.д.). Теперь нужно говорить не только о «релевантности слов-маячков», но и о «релевантности смыслов». Что является последней тенденцией в семантическом поиске.

      Яркий пример того, как поисковики работают

Скачать книгу