(
(не)?Путевые заметки промоутера - вопросы продвижения и оптимизации сайтов, поисковые системы и реклама

« June 2005 | Главная | August 2005 »

July 28, 2005

Тулбар Yahoo! для FireFox вышел из беты

Вчера анонсирована версия 1.0 Yahoo! Firefox Toolbar: Beta no more!
Только версии на русском пока нет.

Отправлено Cherny в 9:46 AM

Форум в RSS

Сергей прикрутил к форуму RSS, причем не только ко всему форуму, а и к разделам.

В потоке транслируется часть текста первого поста, ссылка на пост ведет сразу к новым сообщениям, а не к первому.
То, что надо! Abilon пыхтит, но работает.

Отправлено Cherny в 9:03 AM

July 25, 2005

Логотип в стиле Google

Я не буду писать, что Яндекс запустил свой аггрегатор Яндекс.Лента, не буду говорить, что появилась возможность просмотреть все объявления Директа, а не только гарантированные, тем более не буду говорить, что убили директора «Центра Американского Английского».

Я только напишу про сайт, где можно сделать логотип в стиле Google, но со своим текстом, например такой:

Cherny Logo Google style

Отправлено Cherny в 2:42 PM

July 19, 2005

Домены в ua

В метро из 5 реклам с адресами сайтов 4 сайта в ua, а не в com.ua или kiev.ua. Пятый сайт в net, поскольку провайдер.

Для серьезных компаний домен в com.ua уже не солидно, необходимость регистрировать товарную марку не останавливает.

Отправлено Cherny в 3:33 PM

July 18, 2005

И снова о robots.txt

Казалось бы, что еще можно сказать, если есть стандарт 94(!) года всего с несколькими простыми правилами. 11 лет для веба — огромный срок, можно разобраться со всеми проблемными вопросами и пользоваться с закрытыми глазами. Ан нет! Придумали добавлять расширения в robots.txt, чтобы решать какие-то дополнительные задачи. Теперь роботы одной SE путаются в расширениях для другой SE.

Недавно подняли интересную тему, где указали на явную ошибку в разделе помощи Яндекса, посвященному зеркалам, а именно: для каждой записи в robots.txt обязательно хотя бы одна строка с Disallow:, поэтому следующий пример кода нарушает стандарт:
User-Agent: *
Host: www.myhost.ru

Хотя в процессе обсуждения обнаружилось, что сам стандарт не лишен своих «косяков». Так, в разделе The Format первый раз в документе встречается термин «header», причем в предложении Unrecognised headers are ignored. Сотрудники Яндекса трактуют этот термин, как «строка» или «отдельная директива» в пределах записи (record), тогда использование директивы Host: в секции для всех роботов правомерно и не должно вызывать проблем. Однако сотрудники Google, видимо, трактовали термин «header» как запись, соответственно, GoogleBot полагает всю запись с директивой Host: неверно оформленной и игнорирует ее полностью!

Отсюда делаем вывод и оформляем его, как дополнительное неофициальное правило составления robots.txt:
Дополнительные директивы следует применять только в записях (секциях) для роботов, поддерживающих данные директивы.
Или по другому:
Не использовать дополнительные директивы в секции для всех роботов.

Т.е. никаких Host: или Crawl-delay: в секции User-agent: *

P.S. Замечание о том, что webmaster.yandex.ru использует устаревшую базу зеркал следует считать дополнительным бонусом. :)

Отправлено Cherny в 9:30 AM | Комментарии (1)