Новые алгоритмы поисковиков и сказки об алгоритмах

Каждый раз, обновляя свои алгоритмы, поисковые системы утверждают, что, прежде всего, они направлены на борьбу с некачественным контентом, и выдача никоим образом не подвергается корректировкам.

 

Совсем недавно вышло новое анонсированное обновление от Google Panda 4.0. И, как всегда, анонсируется этот алгоритм как фильтрующий некачественный и бесполезный контент.

 

Признаки некачественного контента

 

  • Очень мало на странице текстового материала;
  • Очень много рекламы относительно основного контента;
  • Откровенный копипаст;
  • Контент низкого качества (сюда входят орфографические и стилистические ошибки, бессмысленное перенасыщение ключевиками, много сленговых слов, мат, откровенные картинки и т.п.);
  • Бесполезный контент (обычно под это определение попадают сайты с контентом, который многократно встречается на других, особенно топовых сайтах, тексты, перенасыщенные ключевыми словами).

 

Признаки качества контента по Google

 

  • Контент, который часто востребован (вопрос к поисковику: а как быть очень хорошим вновь появившимся сайтам, контент которых не востребован, потому что сайт только проиндексирован?)
  • На странице контента больше, чем рекламы;
  • На контент имеются ссылки с других сайтов;
  • Контент уникален;
  • Контент быстро оказывается в соцсетях;
  • Посетители редко возвращаются в выдачу, посетив сайт по запросу (то есть находят ответ на свой вопрос);
  • Посетители долго не уходят с сайта.

 

Это признаки, которые легко отслеживаются программами, то есть не нуждаются в корректировке. Руководствуясь этими признаками, можно улучшить свой сайт, следовательно, оказаться в выдаче на первых страницах.

 

Конечно, возникают некоторые проблемы с математической обработкой данных. Например, в детских блогах может быть очень много орфографических ошибок (что естественно), даже самый интересный сайт поисковик может посчитать ресурсом с некачественным контентом. Аналогичное может произойти с молодежным блогом.

 

Как пример можно привести сайт eBay, потерявший после апдейта 33% трафика. 

 

Поэтому Google допускает ручное редактирование.

 

А вот здесь все серьезнее. Один достаточно известный в англоязычном сегменте сайт после всех последних обновлений Google оказывается в ТОП, причем на 1 позиции по достаточно высокочастотному запросу, несмотря на то что

 

  • Видеоматериал скопирован с YouTube;
  • Практически отсутствует текстовый контент (вместо рекомендованных 2200-2500зн максимум 500);
  • Для показа видео используется формат слайд-шоу, что не слишком удобно для пользователя, но увеличивает количество просматриваемых на сайте страниц;
  • Далеко от совершенства удобство пользования сайтом.

 

В выдаче по-прежнему присутствуют сайты с контентом очень низкого качества и не несущем полезной информации.

 

О чем это может свидетельствовать? Прежде всего, о ручном редактировании. Но вот причины этого ручного редактирования, какими бы явными они не были, назвать нельзя, так как документальных подтверждений этих причин нет.

 

Могу назвать  подобное, связанное с Яндексом: позиции продвигаемого сайта существенно просели (с топ-10 до 80-х) после того, как владелец сайта перестал оплачивать рекламу в Яндекс.Директ.

 

Кстати, после обновления алгоритмов иногда теряют позиции очень хорошие сайты. Правда, обычно очень быстро их возвращают.

 

Вывод: алгоритмы, разумеется, надо совершенствовать, стремясь к заявленным признакам совершенства. Но ничего совершенного пока нет. И ошибки в алгоритме поисковиков могут нанести вред вашему (в том числе и продвигаемому вами, сайту).

 

Ну и еще не слишком приятное, но очевидное: за все хорошее надо платить. А это уж понимайте, как хотите.