Компания Google опубликовала пресс-релиз, в котором сообщается, что во втором квартале следующего года будет прекращено действие инструмента, предназначенного для сканирования AJAX-страниц.
Ранее данный инструмент использовался для того, чтобы краулеры смогли распознавать и отображать в поисковой выдаче сайты, использующие javascript. Необходимость в применении этого инструмента была обусловлена тем, что поисковые роботы не могли распознавать динамический контент. Именно поэтому разработчики компании Google предложили использовать набор методик, позволяющих сканировать приложения и сайты на базе AJAX-технологии.
Почему Google отказывается от этого инструмента?
Как сообщают представители Google, основной причиной отказа от этого инструмента является его неактуальность. Теперь поисковики будут сканировать и обрабатывать AJAX-страницы, как есть. Другими словами, краулеры будут рендерить адрес ресурса напрямую. Соответственно, вебмастеры будут избавлены от необходимости предоставлять отображаемую версию веб-страницы.
Последствия проводимых изменений
В компании Google акцентировали внимание на то, что проводимые изменения не будут иметь каких-либо глобальных последствий. Поэтому владельцы AJAX-сайтов могут не волноваться за свои позиции в поисковой выдаче. Для того чтобы подобные сайты корректно сканировались краулерами, вебмастеры должны прислушаться к ряду рекомендаций поисковой команды Google:
• Вебмастерам следует подтвердить владение страницей в бесплатном сервисе Search Console. Благодаря этому, они будут иметь доступ ко всем полезным инструментам сервиса. Кроме того, поисковик будут оповещать владельцев сайтов о найденных проблемах.
• Не стоит забывать пользоваться «Сканером Google».
• Для индексирования контента, который был создан посредством плагиновых технологий, можно использовать конвертеры в HTML или javascript.
• Inspect Element позволит вебмастерам убедиться в том, что в ссылках применяется HTML-элемент. Помимо этого, данная функция позволяет удостовериться в правильном расположении rel=nofollow.