(не)?Путевые заметки промоутера - вопросы SEO, продвижения и оптимизации сайтов, поисковые системы и реклама в России и Украине

« Исследование ссылочной базы Рунета | Главная | Исследование интернет-торговли от Яндекса »

March 23, 2007

Технологии запрета

Запрещать индексацию некоторых страниц сайта можно, а часто и нужно. Некоторые примеры я рассматривал в своем докладе о robots.txt. За последние пару месяцев в официальных блогах Google вышло несколько постов о стандарте исключений (robots.txt), его дополнений для Гуглбота, ну и результирующий пост со ссылками на все материалы.

А в это же время где-то за границей... Дэнни Салливан публикует подробнейшую инструкцию по мета-тег ROBOTS, варианты его использования и дополнительные параметры, которые понимают разные поисковые системы.

Хотелось бы отдельно остановиться на утверждении, что документ, где указано <meta name="ROBOTS" content="noindex"> все равно будет запрашиваться роботом, хотя бы для того, чтобы прочитать эту инструкцию, а в случае запрета в robots.txt документ(ы) запрашиваться роботом не будут пока запрет фигурирует в файле исключений.

Отправлено Cherny в March 23, 2007 1:24 PM

Комментарии

>Хотелось бы отдельно остановиться на утверждении

В каком контексте вы привели это утверждение? Все логично, на мой взгляд, хотя на практике не отслеживал.

Отправлено Дмитрий в March 23, 2007 7:39 PM