Google «блокирует» страницы, закрытые поисковым роботом robots.txt

По сообщению издания Search Engine Roundtable, на страницах сервиса «Рекомендации для веб-мастеров» некоторые пользователи стали жаловаться на уведомления о блокировке URL определенных интернет-страниц алгоритмом поисковой системы, появляющиеся в отчетах по индексации Google в разделе «Инструменты для веб-мастеров».

В первый момент эта информация привела специалистов в смятение, но в результате проверки данных обнаружилось, что отчеты содержали информацию о якобы заблокированных отдельных интернет-странцах, которые были ранее закрыты robots.txt. Позже большинство подобных страниц были удалены самими веб-мастерами, однако отчеты об индексации по-прежнему считают их «заблокированными алгоритмом».

Комментируя сложившуюся ситуацию, Джон Мюллер от лица Google заявил, что анализ данной манипуляции поисковым роботом происходит так, словно эти страницы кратковременно «исчезли» из индекса. Впоследствии подобные страницы индексируются повторно. Именно это и вызывает накладки. По его мнению, в ближайшее время не стоит ожидать значительного снижения количества уведомлений о блокировке, но это никак не сказывается на общем ранжировании интернет-ресурсов. Успокаивая пользователей, Джон Мюллер подчеркивает, что такое положение дел не служит неким плохим предзнаменованием, а является технической особенностью работы алгоритма.

Остались ещё вопросы?

Заказ обратного звонка

Спасибо.
Мы уже получили ваше сообщение!
Адрес сайта Телефон E-mail
Перезвоните мне:
Заполняя форму, вы соглашаетесь с политикой конфиденциальности

Заказ техподдержки сайта

Спасибо.
Мы уже получили ваше сообщение!
Адрес сайта Телефон E-mail
Заказать техподдержку