История развития алгоритмов поисковой системы Google

Детище Ларри Пейджа и Сергея Брина – крупнейший поисковик Google – на данный момент может найти документы, написанные на 191 языке и обработать информацию основных форматов (Word, PDF, Exel и др). Как же Google ранжирует страницы в своей поисковой выдаче?

Вехи истории

1998 год.

Год рождения поисковой системы Google. Тогда был придуман PR (Page Rank), алгоритм которого был основан на передаче ссылочного веса включал в себя 2 параметра:

  • чем больше ссылок введет на страницу, тем выше PR и выше место в поисковой выдаче.
  • чем выше PR ссылающихся страниц, тем больший вес передают ссылки.

Иными словами, PR страницы А будет выше, чем больше на нее будет ссылаться страниц В, имеющих PR. Так появилось ссылочное ранжирование и Google, благодаря этому, значительно улучшил качество поиска по сравнению с конкурентами. Алгоритм PR и сегодня является одним из основных факторов ранжирования Google. Многие вебмастера и оптимизаторы заботливо наращивают показатель PR, полагая, что это поможет поставить сайт на первые строчки поисковой выдачи. 4 сентября 2001 компания Google Inc, владелец торговой марки «PageRank», запатентовала алгоритм. Официально изобретателем PR считается Лари Пейдж, а владельцем патента – Стэнфордский университет.

Любопытно, что многие переводят название PageRank как «ранг страницы», хотя на самом деле переводится как «ранг Пейджа», то есть алгоритм назван именем изобретателя. Впоследствии многие поисковые системы взяли PageRank за основу, разработав свои аналоги PR и других показателей количественно-качественного ранжирования веб-страниц.

2000 год.

Google презентует новый алгоритм – Hilltop, призванный точнее рассчитывать PR. Этот алгоритм учитывает географию и новизну документа. И Google начинает предупреждать вебмастеров не расставлять ссылки на подозрительных сайтах и линкопомойках.

2001 год.

В 2001 Google патентует Hilltop, который при расчете PR использует динамический ранг документа. В этом же году Google разделил результаты выдачи для коммерческих и некоммерческих запросов.

2003 год.

15 ноября 2003 года Google, как ураганом, пронесся новым алгоритмом Florida по результатам своей выдачи, убрав из нее или сильно понизив перенасыщенные ключевыми словами страницы. В тот день многие SEO-специалисты, приноровившиеся к Hilltop, поняли, что новый алгоритм понижает в выдаче за:

  • Неуникальный контент
  • Слишком частое упоминание в заголовках и текстах ключевых слов
  • Неестественные (покупные) внешние ссылки

2005 год.

Первая попытка Google персонализировать выдачу, формируя ее на основе предыдущих запросов пользователя.

2006 год.

Запуск алгоритма, основанного на алгоритме Orion – плоде деятельности израильского студента. Google стал находить близкие к тематике запроса страницы, не содержащие ключевых слов. В данный момент Google предлагает уточнить запрос, подсказывая, что еще ищут с запрашиваемым словом. Например, по запросу «круг» Google в самом низу страниц поисковой выдачи предлагает использовать варианты «окружность», «круг песни» и тд.

2007 год.

Запуск алгоритма Austin. Этот алгоритм учитывает трастовость веб-ресурса и понижает в выдаче менее трастовые ресурсы в важных для пользователя тематиках. Так, молодые сайты, не успев набрать траст, не попадают в ТОП-5.

2009 год.

Google вводит алгоритм Caffeine. Благодаря росту производственных мощностей, поисковый гигант начинает чаще индексировать сайты и ускоряет формирование поисковой выдачи. Новый алгоритм несильно затронул формулу расчета релевантности, но изменения заметны:

  • Благодаря постоянной индексации всего интернет-пространства, выдача Google становится динамической и может изменяться в течение дня.
  • Содержание контента и частота обновления сайта выходит на первый план.
  • Внутренняя оптимизация (удобство пользования сайтом, внутренняя перелинковка) повышает доверие Google к ресурсу.
  • Появляются санкции «за спам».
  • Появляются санкции за технические проблемы. Например, долго загружающийся сайт битые ссылки, могут стать причиной понижения ресурса в выдаче.
  • Google уделяет внимание ресурсам и ссылкам из Googlenews, Twitter, Googleblog.

2011 год.

Google запускает алгоритм Panda, эдакого «мусорщика» собственной выдачи. Panda призван очистить выдачу от «нехороших» сайтов: дорвеев, сателлитов, сайтов, сделанных только для размещения рекламы и ссылок, а так же от сайтов с неуникальным контентом.

Как говорят создатели Panda – Мэтт Катс, Амит Сингал, алгоритм, сортируя на «плохие» и «хорошие» сайты, учитывает:

  • Процент уникальности контента на конкретной странице сайта и на веб-ресурсе в целом.
  • Шаблонность контента, то есть похожее содержание текстов, написанных под разные ключевые фразы.
  • Наличие ошибок (стилистика, грамматика, орфография) в тексте
  • Релевантность рекламы к содержимому сайта
  • Соответствие содержания тегов и мета-тегов (title, h1 и др) страницы к содержимому страницы.
  • Перенасыщение текстов ключевыми словами.
  • Качество входящих и исходящих ссылок
  • Действия пользователя (время, проведенное на сайте, количество просмотренных страниц, показатель отказов, процент возвратов на веб-ресурс)

С уверенностью можно утверждать, что поисковые системы учитывают в ранжировании поведенческие факторы (последние из списка выше). Чем интереснее для пользователя сайт, чем больше он проводит на нем времени, тем выше ранжируется веб-сайт в поисковой выдаче.

России с Google, можно сказать, повезло. Русский Google не применяет большинство своих карательных санкций и SEO-специалисты утверждают, что в русскоязычном Google поисковое продвижение сайта гораздо проще, чем в отечественном поисковике Яндекс.

Остались ещё вопросы?

Заказ обратного звонка

Спасибо.
Мы уже получили ваше сообщение!
Адрес сайта Телефон E-mail
Перезвоните мне:
Заполняя форму, вы соглашаетесь с политикой конфиденциальности

Заказ техподдержки сайта

Спасибо.
Мы уже получили ваше сообщение!
Адрес сайта Телефон E-mail
Заказать техподдержку