SEO статьи
Как оградить приватную информацию от вездесущего Яндекса? Этим вопросом задались многие разработчики сайтов, после недавних событий, связанных с выдачей поисковика. Яндекс напоминает веб мастерам, что если они не желают, чтобы какая-либо информация просочилась с их сайтов в выдачу поисковой системы, то им уже сегодня стоит задуматься, как обезопасить свои творения от индексации. Поисковик в очередной раз обращает внимание веб мастеров на то, что если они не хотят стать жертвой подобных ситуаций в будущем, то им просто следует создавать файл с именем robots.txt, где нужно прописать, какие страницы они бы желали спрятать от поискового робота.
Как создать robots.txt, Яндекс доступным языком описывает в этом ролике:
Конечно данное видео скорее для новичка, который наверняка для себя почерпнёт из него что-то новое. А опытные вебмастера и так знают про robots.txt, и файлы, которые они создают, намного сложнее, чем тот, что приведён в примере.
Пресс-секретарь Яндекса, Очир Манджиков, в своих комментариях о запуске ролика отметил, что в идеале вебмастера должны сами следить за данными, которые они размещают на своих сайтах, например, защищать конфиденциальную информацию паролем, или делать так, чтобы данные о компании вовсе туда не попадали. Информация, которая размещена в Интернете, и не имеет никакой защиты, запросто может оказаться в поисковой системе. А чтобы запретить доступ к данным для поисковых роботов, необходимо в файле robots.txt с помощью протокола REP указать правила доступа. Поэтому верное составление файла роботс является просто потрясающе важным этапом в раскрутке и продвижении сайта, который обеспечивает лучший результат.
Но практикой доказано, что, несмотря на всю простоту способов защиты приватных данных, и то, что правила взаимодействия поисковых систем с сайтами, созданы в далёком 1994-м, многие вебмастера по-прежнему делают ошибки. В результате всего вышесказанного, информации остаётся доступной и попадает в различные поисковики - не стал исключением и Яндекс.
После июльских событий, когда оказалось, что далеко не все разработчики сайтов знакомы с защитой информации, которую им доверяют многочисленные пользователи Интернет, Яндекс решил сделать иллюстрированный руководство, в котором попытался в доступной форме рассказать о файле robots.txt, - простом инструменте для вебмастеров, где они смогут прописать параметры индексации своего сайта.
Как создать robots.txt, Яндекс доступным языком описывает в этом ролике:
Конечно данное видео скорее для новичка, который наверняка для себя почерпнёт из него что-то новое. А опытные вебмастера и так знают про robots.txt, и файлы, которые они создают, намного сложнее, чем тот, что приведён в примере.
Пресс-секретарь Яндекса, Очир Манджиков, в своих комментариях о запуске ролика отметил, что в идеале вебмастера должны сами следить за данными, которые они размещают на своих сайтах, например, защищать конфиденциальную информацию паролем, или делать так, чтобы данные о компании вовсе туда не попадали. Информация, которая размещена в Интернете, и не имеет никакой защиты, запросто может оказаться в поисковой системе. А чтобы запретить доступ к данным для поисковых роботов, необходимо в файле robots.txt с помощью протокола REP указать правила доступа. Поэтому верное составление файла роботс является просто потрясающе важным этапом в раскрутке и продвижении сайта, который обеспечивает лучший результат.
Но практикой доказано, что, несмотря на всю простоту способов защиты приватных данных, и то, что правила взаимодействия поисковых систем с сайтами, созданы в далёком 1994-м, многие вебмастера по-прежнему делают ошибки. В результате всего вышесказанного, информации остаётся доступной и попадает в различные поисковики - не стал исключением и Яндекс.
После июльских событий, когда оказалось, что далеко не все разработчики сайтов знакомы с защитой информации, которую им доверяют многочисленные пользователи Интернет, Яндекс решил сделать иллюстрированный руководство, в котором попытался в доступной форме рассказать о файле robots.txt, - простом инструменте для вебмастеров, где они смогут прописать параметры индексации своего сайта.