Алгоритмы Яндекса и их влияние на позиции сайта

Обсудить
Боты Яндекса

Мы даже не замечаем, как различные алгоритмы начинают принимать за нас решения: где нам делать покупки, какие фильмы смотреть или что заказать на ужин. Об этом стоит задуматься, но в этой статье мы не будем заходить так далеко, а лишь выясним, какие поисковые алгоритмы Яндекса влияют на позиции нашего сайта.

Машинное обучение

Представьте, что в офисе Яндекса за компьютером сидит асессор. Это человек, который просматривает разные веб-страницы и отмечает их соответствие поисковым запросам. Рядом с ним сидит робот и наблюдает за всеми его действиями. Робот, как ребенок, учится подражать асессору. В один прекрасный день асессор встает со стула и уходит из офиса. Далее робот уже самостоятельно анализирует страницы и отмечает их релевантность. Задача любого SEO-специалиста подружиться с этим роботом и сделать так, чтобы он как можно чаще рекомендовал продвигаемый сайт пользователям сети.

Машинное обучение часто применяется поисковыми системами для того, чтобы улучшить ранжирование. Яндексу и Гуглу важно показывать пользователю именно тот ответ, который он хочет получить. 

Роботы словно пауки, которые живут во всемирной паутине. Кто-то из пауков питается только изображениями, кто-то видео, а кто-то новостями. Если по запросам, по которым вы хотите продвигаться, вы постоянно видите в топе одни и те же сайты, значит, контент на этих сайтах паук считает съедобным. Поэтому нужно скармливать пауку подобный контент. Другими словами, если вы хотите узнать, какие сайты роботы после машинного обучения считают наиболее качественными, просто откройте топ выдачи и проанализируйте его.

Матрикснет

Добро пожаловать в матрицу. Матрикснет — это метод машинного обучения, который способен переучиваться. То есть теперь недостаточно один раз понравиться роботу. Допустим, асессор научил робота высоко ранжировать сайты, на которых есть хорошие поведенческие факторы (ранжирование — это распределение по местам в поисковой выдаче). Некоторое время робот ставит все сайты с хорошими поведенческими факторами на первые строчки. Но если робот научится отличать искусственные поведенческие факторы от реальных, то он перепишет свой алгоритм и будет понижать позиции сайтов, которые пользуются накруткой.

Алгоритм Яндекса: Минусинск

Вернемся на 5 лет назад и вспомним алгоритм 2015 года, который был назван в честь города Минусинск (Яндексу нравилось называть алгоритмы в честь городов). Раньше SEO-специалисты действовали по принципу: чем больше ссылок, тем лучше. Тогда сеошники совершенно не заморачивались над качеством ссылок.

Минусинск же стал большим переворотом в сфере продвижения – он стал понижать в выдаче сайты, у которых было много купленных низкокачественных ссылок. Сейчас специалисты по линкбилдингу уже не так рьяно закупают ссылки. Большое количество низкокачественных анкоров и сейчас негативно влияет на ранжирование сайтов.

Алгоритм Яндекса: Киров

Возраст сайта является серьезным показателем авторитетности сайта. Но что если среди новых сайтов есть те, которые гораздо лучше старичков? 

Киров рандомно показывает пользователям новые сайты. Если пользователям они нравятся, алгоритм собирает по ним данные, чтобы самосовершенствоваться. Данный алгоритм создавался для того, чтобы собирать данные, а не влиять на ранжирование. А вот уже на основе собранных данных создаются алгоритмы, которые влияют на ранжирование.

Алгоритм Яндекса: Владивосток

На дворе стоял 2016 год, доля просмотров с мобильных устройств начала превалировать над просмотрами с ПК. Владивосток начал повышать в результатах выдачи сайты, которые имели адаптивный дизайн, а также понижать те сайты, которые не были оптимизированы для телефонов.

Алгоритм Яндекса: Палех

Огромные объемы SEO-ссылок ушли в прошлое с алгоритмом Минусинск. С помощью алгоритма Палех Яндекс решил постепенно избавляться и от SEO-текстов. Думаю, в то время, многие сеошники задумались о смене профессии. 

Яндекс разделил запросы на клюв, туловище и хвост:

Яндекс Палех

Другими словами, на высоко-, средне- и низкочастотные запросы. Алгоритм начал лучше понимать текст, что переросло в следующий алгоритм.

Алгоритм Яндекса: Баден-Баден

Если текст был явно переспамлен, Палех занижал позицию ресурса. Я каюсь, но раньше писал такие тексты:

В нашей компании вы можете недорого купить диплом вуза о высшем образовании с проводкой в Москве государственного образца с занесением в реестр по дешевой цене. 

То есть старался запихнуть максимум ключевых слов в текст. Алгоритм Баден-Баден похоронил заспамленные тексты на всех сайтах в сети. Как говорили представители Яндекса: если страница релевантна запросу, текст в любом случае будет содержать ключевые слова. 

Алгоритм Яндекса: Королев

Робот в офисе Яндекса прочитал уже все русскоязычные интернет-ресурсы и научился понимать не отдельные предложения, а целый текст. Я могу ошибаться, но, возможно, в это время и появились «Оригинальные тексты» в Яндекс.Вебмастере. А может быть, этот сервис и был создан для обучения Королева. Вебмастера добавляли в этот сервис уникальные тексты, но оригинальными текстами алгоритм Королев признавал лишь небольшую их часть.

Сайты с оригинальными текстами сильно полюбились этому алгоритму.

Алгоритм Яндекса: Андромеда 

Андромеда Алгоритм

Андромеда вобрала в себя все самое лучшее от своих предыдущих коллег и добавила новые фишки. Например, могла дать быстрый ответ пользователю, не дожидаясь загрузки результатов поиска. Также Андромеда стала хуже ранжировать сайты с большим количеством рекламы, чтобы не раздражать пользователей. Добавились новые сервисы, например, «Знатоки» и «Коллекции».

Алгоритм Яндекса: Вега

Вега мне напоминает человеческий мозг. Она ищет ответы в своей базе сайтов, пока вы вводите поисковый запрос. Статьи на темы, в которых важна экспертность (например, медицина), проверяются компетентными асессорами, и пользователь получает только качественные ответы на свои вопросы. 

Заключение 

Знание данных алгоритмов позволяет выбирать правильную стратегию продвижения и получать положительный результат в короткие сроки. Со временем поисковая система Яндекс научила вебмастеров не манипулировать выдачей, а стараться делать по-настоящему качественные сайты. SEO-специалистам также стоит придерживаться данной стратегии. 

Идеальная страница, по мнению поисковых роботов, которые прошли машинное обучение, выглядит примерно следующим образом:

  • Имеет качественные входящие ссылки/не имеет большого числа низкокачественных ссылок.
  • Выполнена в современном стиле и содержит актуальную информацию.
  • Полностью оптимизирована для просмотра на мобильных устройствах.
  • Имеет качественные тексты, которые дают развернутый ответ пользователю и не содержат заспамленных конструкций.
  • Содержит только уникальный контент.
  • Не содержит много рекламы.

Комментарии

С помощью соцсетей
У меня нет аккаунта Зарегистрироваться
Нажимая кнопку «Зарегистрироваться», я даю согласие на обработку своих персональных данных, указанных в форме регистрации.
С помощью соцсетей
У меня уже есть аккаунт Войти
Нажимая кнопку «Зарегистрироваться», я даю согласие на обработку своих персональных данных, указанных в форме регистрации.
Инструкции по восстановлению пароля высланы на Ваш адрес электронной почты.
Пожалуйста, укажите email, который Вы использовали для входа на сайт.