Новые алгоритмы поисковиков и сказки об алгоритмах
Каждый раз, обновляя свои алгоритмы, поисковые системы утверждают, что, прежде всего, они направлены на борьбу с некачественным контентом, и выдача никоим образом не подвергается корректировкам.
Совсем недавно вышло новое анонсированное обновление от Google Panda 4.0. И, как всегда, анонсируется этот алгоритм как фильтрующий некачественный и бесполезный контент.
Признаки некачественного контента
- Очень мало на странице текстового материала;
- Очень много рекламы относительно основного контента;
- Откровенный копипаст;
- Контент низкого качества (сюда входят орфографические и стилистические ошибки, бессмысленное перенасыщение ключевиками, много сленговых слов, мат, откровенные картинки и т.п.);
- Бесполезный контент (обычно под это определение попадают сайты с контентом, который многократно встречается на других, особенно топовых сайтах, тексты, перенасыщенные ключевыми словами).
Признаки качества контента по Google
- Контент, который часто востребован (вопрос к поисковику: а как быть очень хорошим вновь появившимся сайтам, контент которых не востребован, потому что сайт только проиндексирован?)
- На странице контента больше, чем рекламы;
- На контент имеются ссылки с других сайтов;
- Контент уникален;
- Контент быстро оказывается в соцсетях;
- Посетители редко возвращаются в выдачу, посетив сайт по запросу (то есть находят ответ на свой вопрос);
- Посетители долго не уходят с сайта.
Это признаки, которые легко отслеживаются программами, то есть не нуждаются в корректировке. Руководствуясь этими признаками, можно улучшить свой сайт, следовательно, оказаться в выдаче на первых страницах.
Конечно, возникают некоторые проблемы с математической обработкой данных. Например, в детских блогах может быть очень много орфографических ошибок (что естественно), даже самый интересный сайт поисковик может посчитать ресурсом с некачественным контентом. Аналогичное может произойти с молодежным блогом.
Как пример можно привести сайт eBay, потерявший после апдейта 33% трафика.
Поэтому Google допускает ручное редактирование.
А вот здесь все серьезнее. Один достаточно известный в англоязычном сегменте сайт после всех последних обновлений Google оказывается в ТОП, причем на 1 позиции по достаточно высокочастотному запросу, несмотря на то что
- Видеоматериал скопирован с YouTube;
- Практически отсутствует текстовый контент (вместо рекомендованных 2200-2500зн максимум 500);
- Для показа видео используется формат слайд-шоу, что не слишком удобно для пользователя, но увеличивает количество просматриваемых на сайте страниц;
- Далеко от совершенства удобство пользования сайтом.
В выдаче по-прежнему присутствуют сайты с контентом очень низкого качества и не несущем полезной информации.
О чем это может свидетельствовать? Прежде всего, о ручном редактировании. Но вот причины этого ручного редактирования, какими бы явными они не были, назвать нельзя, так как документальных подтверждений этих причин нет.
Могу назвать подобное, связанное с Яндексом: позиции продвигаемого сайта существенно просели (с топ-10 до 80-х) после того, как владелец сайта перестал оплачивать рекламу в Яндекс.Директ.
Кстати, после обновления алгоритмов иногда теряют позиции очень хорошие сайты. Правда, обычно очень быстро их возвращают.
Вывод: алгоритмы, разумеется, надо совершенствовать, стремясь к заявленным признакам совершенства. Но ничего совершенного пока нет. И ошибки в алгоритме поисковиков могут нанести вред вашему (в том числе и продвигаемому вами, сайту).
Ну и еще не слишком приятное, но очевидное: за все хорошее надо платить. А это уж понимайте, как хотите.