Путевые записки - продвижение сайтов, поисковые системы, индексация и документация, роботы поисковиков

August 31, 2007

В Yahoo "улучшили" работу Slurp...

На прошлой неделе в Yahoo официально заявили об улучшении алгоритма работы поискового робота Slurp, в процессе тестирования и апдейта робота "отпустили погулять", в результате на многих сайтах от него увеличилось количество запросов и, соответственно, трафик. В Yahoo заявляют, что в будущем подобного больше не повторится, поскольку введены новые ограничения:

Don't fret, though, if you're concerned about seeing an increased load. We've initiated efforts and established policies internally to ensure this doesn't happen, even temporarily, in the future.

Западные вебмастера недовольны такими "улучшениями" и указывают на необходимость использования роботами общего кеша:

The fact that Yahoo has multiple crawlers for every division that crawl independently and don't share the common cache, now THAT's a problem that needs to be fixed.

Роботы Гугля, например, общий кеш используют, я об этом писал.

На просторах Рунета от Yahoo пользы практически никакой, а трафик, потребляемый роботом Slurp, как-никак зарубежный. На их внутренние ограничения надеяться не стоит, тем более вебмастер сам может их робота ограничить - параметр Crawl-Delay в robots.txt и можно спать спокойно.

Написано Cherny в 10:15 AM | Комментариев (0) | TrackBack

August 30, 2007

Расширения для адресов страниц

Интересный пост о 5 преимуществах использования адресов страниц а-ля каталог сайтов, то есть адресов вида www.site.com/folder. Вкратце они таковы:

  1. Накачка основного домена ссылочным весом (по сравнению с использованием поддоменов)
  2. Более запоминаемые адреса
  3. Адреса выглядят более "чистыми"
  4. Легко поменять хостинг (перейти с одной платформы на другую)
  5. Удобно организованная (файловая?) структура сайта

Несколько странная аргументация на мой взгляд. С одной стороны поддомены и "вес" сайта, с другой - файловая структура и смена хостинга. Добавлю свои 5 копеек.

Для начала разберемся с поддоменами. Поддомены следует делать либо когда количествово страниц в разделе будет больше нескольких тысяч, либо если раздел выбивается из набора остальных раделов сайта. Форумы, например, лучше сразу выносить на поддомен, поскольку даже на относительно "пустом" форуме будет несколько сотен страниц, а со временем количество страниц может составить десятки и сотни тысяч. Кстати, адрес поддомена не намного сложнее запомнить, чем адрес раздела сайта. Важно еще при создании поддомена создать и алиас с www (www.sub.site.tld), поскольку многие пользователи набирают www в любом случае и, кстати, сразу решить вопрос с зеркалами.

Что касается адресов страниц разделов на основном сайте, то лучше использовать адреса а-ля папки. Такие адреса действительно проще запомнить и они действительно выглядят проще и чище. Значительная масса сайтов использует связку CMS/динамика/mod_rewrite. При использовании mod_rewrite лучше делать адреса разделов без завершающего слеша, а для статических сайтов - наоборот. Либо уже полностью моделировать работу веб-сервера - на запрос страницы раздела без завершающего слеша выдавать 301-й редирект на страницу со слешом, а там уже 200 Ok и саму страницу.

Адреса внутренних страниц раздела следует "вкладывать" в папку, т.е. www.site.tld/folder/page.html, поскольку есть еще люди, отсекающие адреса страниц вместо работы с навигацией сайта. При работе с динамикой и mod_rewrite мы получаем виртуальную структуру сайта, аналогичной физической структуры часто-густо просто не существует.

Переход на другой хостинг, а вернее - смена платформы, навряд ли ограничится адресами разделов даже для небольших сайтов, так что на это обращать особого внимания не стоит.

Что мы получили в результате для разделов сайта:

  1. На поддомены следует выносить или объемные разделы, или разделы, не попадающие логически в основной сайт.
  2. При создании раздела на поддомене следует озаботиться алиасом поддомена с www и вопросами зеркал.
  3. Разделы на основном сайте лучше всего делать а-ля папка, при этом надо учесть всю логику работы адресов с/без завершающего слеша.
  4. Внутренние страницы для раздела следует "вкладывать" в директорию раздела, при этом формируется удобная для пользователя структура сайта (адресная или логическая, но не файловая).
  5. Адреса внутренних страниц раздела желательно делать с расширением, чтобы избежать неоднозначности с подразделами и избежать мороки с завершающими слешами.

Написано Cherny в 10:05 AM | Комментариев (0) | TrackBack

August 23, 2007

Портал для вебмастеров и оптимизаторов от Майкрософт

В официальном блоге Live Search сообщается о планах в конце осени открыть специальный сервис для вебмастеров и оптимизаторов. Работа над сервисом началась практически сразу после отключения спецоператоров поиска, сервис должен предотавлять следующие возможности:

  • отслеживание и решение проблем с индексацией сайта роботом MSNBot;
  • Работа с Sitemaps;
  • Статистика сайта (как они ее считать будут интересно);
  • Инструмент по content submission.

Пока хотят предоставить доступ группе тестеров, которым и предложено отправить свои контакты. Может быть хотят контакты вебмастеров и оптимизаторов собрать :)

В адресе используется сокращение «lswmp» из чего можно сделать вывод, что сервис будет называться Live Search WebMaster Portal.

Написано Cherny в 3:17 PM | Комментариев (2) | TrackBack

March 20, 2007

Исследование ссылочной базы Рунета

Алексей Тутубалин опубликовал фундаментальные, можно сказать, результаты исследования ссылочной базы Рунета на предмет покупки-продажи ссылок. В анализе рассматриваются вопросы состояния и динамики продаж ссылок с главных страниц Рунета, критерии отличия естественных ссылок от платных, оценивается сверху объем рынка покупки и продажи ссылок, а также доля сайтов, занимающихся продажей. Результирующее значение для оборота — 2,8 млн. долларов в месяц, что, кстати, примерно согласуется с оценкой Ивана Севостьянова — 20 млн. долларов в год на платные методы продвижения (презентация).

А инструмент оценки стоимости ссылки Николая Ярова (идея Александра Кириллина) почему-то так и не выдал большими цифрами стоимость размещения ссылки на этом блоге.

Написано Cherny в 3:51 PM | Комментариев (5)

February 26, 2007

Открытые отчеты лог-анализаторов

Как «секретные» страницы попадают в индексы поисковых систем? А очень просто! Иногда достаточно поставить на этой секретной странице внешнюю ссылку и эта страница попадет в отчеты лог-анализаторов как ссылающаяся (Referer). А отчеты лог-анализаторов часто-густо лежат в открытом доступе и индексируются.

Как уберечь ссылку от попадания в отчеты о ссылающихся? Либо не оформлять ссылку, а написать ее просто текстом — тогда пользователю придется копировать ссылку из текста и вставлять в адресную строку браузера, либо запароливать свою секретную страницу — тогда она попадет в отчеты, а вот в индексы поисковиков уже навряд ли.

Кстати о «секретных» страницах. Мой небольшой эксперимент по индексации страницы с помощью тулбаров можно считать практически завершенным. Для чистоты дождусь конца месяца и напишу о результатах.

Написано Cherny в 9:58 AM | Комментариев (2) | TrackBack

February 22, 2007

За сколько произойдет склейка зеркал в Google

Barry Schwartz указывает на обсуждение в Google Groups, Где Адам Ласник называет время «суммирования» PageRank при склейке зеркал сайта 301-м редиректом. Адам говорит о нескольких неделях, Barry удивлен такому заявлению и выдвигает свой вариант в несколько месяцев:

I was a bit shocked by the statement of just "a couple of weeks" for 301s to "pass PR and related signals appropriately." I always thought it was a couple months or more.

В комментариях кто-то отметил год, в течение которого наблюдается разный PageRank на склеенных зеркалах. Меня лично удивляет сама возможность узнать достоверный PageRank для страницы, которая отдает серверный редирект. Узнать-то можно, но вот насколько это будет достоверно? Кроме этого не стоит забывать о частоте выкладывания значений «видимого» PageRank — один раз в несколько месяцев. Так что не стоит ждать быстрой склейки зеркал при помощи 301-го редиректа.

Написано Cherny в 3:17 PM | Комментариев (5) | TrackBack

January 27, 2007

Google говорит нет Googlebombing

В блоге для веб мастеров представители Google заявляют об изменениях в алгоритме поиска, благодаря которым должно исчезнуть такое явление, как Googlebombing. Денни Салливан, в свою очередь, дает ретроспективу этого явления и разбирает вопрос корректности решения этой проблемы, если Googlebombing можно назвать проблемой.

Технология Googlebombing сама по себе довольно проста и основывается на особенностях поисковых алгоритмов некоторых поисковых систем, а именно — учете текста ссылок при определении рейтинга страниц, на которые эти ссылки ведут, или ссылочном ранжировании. То есть слова из ссылки как бы добавляются к текст страницы, причем с учетом веса ссылающейся страницы. Ссылочное ранжирования хорошо работает в Гугл и даже слишком хорошо — в Яндексе. А вот Рамблер как ни бомби — толку будет мало. Если же к этому рецепту присовокупить социальную составляющую (выражаясь модными словами), а проще говоря — если поставить значительное количество ссылок с одинаковым текстом с разных сайтов на одну и ту же страницу, то эта страница займет хорошие позиции по запросу, даже если слова из запроса совсем не встречаются в тексте страницы.

Наиболее известным примером Googlebombing считается первое место страницы с биографией Джорджа Буша по запросу miserable failure (жалкий неудачник), причем первое место страница удерживала более двух лет. Аналогичные фокусы проделывались и в рунете с сайтами президента России Путина в 2006 году и кандидата в президенты Украины Януковича в 2004. Правда американской стабильности в нашем случае замечено не было — сайты в топах по бомбовым запросам долго не висели.

В Гугле не корректировали результаты поиска «вручную», а предпочли изменить алгоритм. Об изменениях алгоритма рассуждает Филипп Ленссен, кроме этого дает сравнительную таблицу наиболее известных случаев бомбинга, включая и российский случай. Филипп пишет, что следует анализировать структуру ссылочных графов для отсечения неестественных связей (ссылок) между узлами (страницами). Я же могу сказать, что для бомбинга характерно как отсутствие фразы в тексте самой страницы, так и одинаковый текст ссылок с большого количества страниц. А дальше уже анализ графов, конечно.

Написано Cherny в 12:40 AM | Комментариев (4)

January 24, 2007

Как правильно писать title

В блоге SEOmoz опубликованы рекомендации по составлению тайтлов для страниц. Именно рекомендации, а не догмы, поскольку я сам с некоторыми утверждениями поспорил бы, начиная от желательных 65 символов и продолжая разделителями логических частей заголовка. Впрочем, в комментариях достаточно поспорили и без меня, а попутно рассмотрели варианты разделителей, отличия составления заголовков вручную и правил для CMS сайта, некоторые вопросы юзабилити. Заинтересованным лицам рекомендуется к прочтению.

В вопросах SEO, кроме непосредственно оптимизации страниц сайтов для поисковых систем, должны всегда просматриваться вопросы юзабилити. Как максимум, рекомендации специалиста по продвижению должны улучшать юзабилити сайта, как минимум — должен соблюдаться баланс между оптимизацией и юзабилити. Я, например, всегда стараюсь выносить бренд (название компании) в конец заголовка, а название статьи — в самое начало. Только не потому, что ключевые слова следует должны быть как можно ближе к началу заголовка (один из очередных SEO-мифов), а хотя бы потому, что при открытии нескольких статей сайта в разных окнах пользователь по началу заголовков на кнопках в taskbar сможет определить где и что у него открыто. Классическую же дорвейную страницу с бессмысленным текстом, нашпигованным ключевой фразой можно считать примером неплохой оптимизацией при 0% юзабилити. Единственным полезным для пользователя компонентом страницы можно признать редирект, который его перекинет в более человечное окружение. Жаль становится поисковых роботов, не понимающих редиректов - они вынуждены полностью анализировать такие страницы. Может быть из-за этого мусора так и не появился искуственный интеллект? :)

Написано Cherny в 12:25 AM

December 28, 2006

Непрозвучавший доклад о robots.txt

Вот и подкрался к нам Новый Год! Как и полагается, у меня назрела парочка подарков всем читателям блога, хотя, в первую очередь, себе самому. Итак, подарок номер раз!

На ноябрьской конференции Поисковая оптимизация и продвижение сайтов в интернете я присутствовал в том числе и как докладчик, правда докладчик несколько виртуальный. Я не читал доклад со сцены, поскольку, во-первых, не было сильного желания этого делать, а во-вторых, доклад о такой специфической штуке, как robots.txt, больше половины аудитории просто не восприняла бы. В программе конференции этот доклад также не фигурирует, хотя Михаил Козлов обещал выложить презентация, а вот в сборнике материалов конференции мое произведение есть, так что участники могли там его прочесть.

Сейчас я выложил полный текст доклада, так что встречаем — robots.txt: стандарт, расширения, аспекты применения! А для полноты картины и презентация (392k).

Своим докладом я хотел подвести некоторую черту под вопросами о robots.txt, его формате и применении, тем более некоторое время назад появился неплохой справочный ресурс по robots.txt на русском языке. Есть еще очень много интересных тем для обсуждения и изучения, но об этом чуть позже...

Написано Cherny в 10:48 AM | Комментариев (2)

December 20, 2006

Контент и ссылки - два кита поискового продвижения

Контент и ссылки являются основными составляющими успешного поискового продвижения веб-сайтов. Ссылки входящие, конечно же! Там, где присутствует качественный контент, там с большой вероятностью появляются хорошие входящие ссылки, а сейчас, во время процветания различных веб-сервисов, можно утверждать и обратное: там где присутствуют ссылки, может появится и контент, но не факт, что качественный. И то, и другие, возможно только при наличии аудитории.

Но вернемся к ссылкам и контенту. Сотрудники Гугла после посещения профильных оптимизаторских и вебмастерских мероприятий и дискуссий, как у нас принято говорить, в кулуарах, решили ударить блогопробегом как по ссылкам, так и по контенту и вопросу его дублирования.

Ссылки

В первом посте рассматривается вопрос, как же лучше получать на свой сайт массив входящих ссылок — медленно наращивая его за счет качественного контента и грамотной стратегии продвижения или быстрыми темпами за счет применения не слишком чистых приемов и покупки ссылок. Примечательно, что покупка ссылок в данном посте явно приравнивается к спаму:

link spamming tactics such as buying links

Опуская обычные для таких случаев ссылки на руководство для вебмастеров, отметим следующие момент — Google существенно изменил алгоритм взвешивания ссылок, кроме этого несколько человек брошены на улучшение эффективности алгоритма. Я бы предположил добавление нескольких коэффициентов для довзвешивания ссылок, причем эти коэффициенты должны отличаться, например, для соседних ссылок на одной и той же страницы. Сообщается также о практической бесполезности взаимных ссылок, то есть прямого обмена, но это и так все знают.

В качестве рецепта рекомендуется использовать социальный веб для построения массива входящих ссылок. Хотя мне кажется, что социальный веб вполне себе освоил nofollow.

Кстати, алгоритм отлова нетематических невзаимных ссылок Игорь Ашманов нарисовал на листике бумаги во время фуршета на конференции, все довольно просто, надо отслеживать одинокие связи между "клубками" графа ссылок. Правда мне становится не очень хорошо, когда я пытаюсь представить ты часть ссылочного графа Яндекса, где сосредоточены коммерческие тематики.

Контент (дубликаты)

Во втором посте Адам Ласник дает определение дубликатам (duplicate content) и как обычный вебмастер может бороться с появлением таких дубликатов. Дубликаты - это блоки контента в пределах одного домена или ряда доменов, которые в точности соответствуют или сильно схожи на другие блоки контента, расположенные в других местах. Темы форумов в различных вариантах просмотра, сортировка списков, каталоги товаров, которые хранятся и, что намного хуже, линкуются по разным адресам (саттелиты не напоминает?)

Борется Гугл с дубликатами при помощи специальных фильтров при формировании результатов поиска, попытками отсеить версии для печати, корректировкой алгоритма индексации ресурсов, уличенных в дублировании и т.д.

Что же может сделать вебмастер? Некоторые методы я описывал в докладе о технических аспектах в поисковом продвижении, а вот что предлагают в Гугле:

  • Изначально блокировать индексацию второстепенных страниц
  • Использовать 301-й редирект при реструктуризации сайта для перенаправления на новые версии страниц
  • Не генерить множество различных ссылок на одни и те же страницы
  • Использовать домены второго уровня
  • Понимать как работает CMS-сайта

И еще ряд рекомендаций...

Поскольку это все-таки запись в блоге, а не статья, то я здесь поставлю точку и пойду спать без ломания мозгов и формулирования выводов.

Написано Cherny в 1:03 AM

September 7, 2006

Дата в кеше Гугля

В Webmaster Central Blog появилось сообщение, где разъясняется изменение вывода даты над кешированной копией страницы. Ранее выводилась дата последнего успешного получения копии страницы Googlebot'ом. Если позже робот запрашивал страницу повторно и получал ответ сервера 304 Not Modified, дата не изменялась.

В настоящее время выводится дата последнего запроса страницы роботом, даже если сервер получил 304-й ответ. Таким образом, просмотрев кеш страницы, мы точно можем сказать, когда там последний раз был GoogleBot.

Написано Cherny в 11:41 PM

September 6, 2006

AiK о дополнительных ссылка в Google SERP

Артем Шкондин подробно рассказывает о дополнительных ссылках в результатах поиска Google, когда они появляются и каким требованиям должны соответствовать ссылки на сайте, чтобы попасть в такие дополнительные секции.

Написано Cherny в 11:21 AM

August 4, 2006

Yahoo ищет SEO-специалиста

Немецкое отделение Yahoo ищет SEO-специалиста. (via)
Все рабочие обязанности и требования к соискателю внятно расписаны. Возникает только вопрос о продвижении продуктов Yahoo в самом Yahoo и знании особенностей алгоритма нанимателя! :)

Написано Cherny в 9:17 AM

February 28, 2006

Google Sitemaps и RSS-потоки

После открытия сервиса по проверке robots.txt в Google SiteMaps решил поподробнее исследовать этот инструмент. Так как устанавливать генератор Sitemap на python — абсолютная авантюра, а писать что-то свое лениво и времени жаль — попытался воспользоваться возможностью добавить RSS-поток вместо карты сайта оригинального формата. Среди поддерживаемых форматов также Atom 0.3 и простой текстовый файл в формате «один URL на строку». RSS 2.0 и Atom 0.3 автоматом создаются в наиболее распространенных блоговых движках.
Ан не тут-то было!

Их обработчик споткнулся обо что-то в RSS-потоке и выдавал ошибку, как для потока текущего блога на Movable Type, так и для моего другого блога на Wordpress. Оказалось, что проблема заключается в конструкции <![CDATA[...]]>, которая не противоречит стандарту, кстати.

RSS-поток на этом блоге я уже подстраивал, чтобы туда попадал весь текст заметок и ссылка на комментарии; убрать конструкцию CDATA оказалось просто — замена 0 на 1 в конфигурационном файле. А вот с движком на Wordpress пришлось поковыряться, не так там все прозрачно, как кажется на первый взгляд. Может я просто квалификацию теряю...

Как бы то ни было, RSS-потоки сейчас парсятся Гуглем без ошибок, так что остается наблюдать за работой SiteMaps.

Написано Cherny в 12:15 PM

February 8, 2006

Руководство для вебмастеров от Google на русском

В связи с активизацией борьбы Google с международным веб-спамом Мэт Каттс предлагает перечитать руководства для вебмастеров по качеству на их (вебмастеров) родных языках.

Читать, бояться!

Написано Cherny в 10:50 AM | Комментариев (2)

February 6, 2006

Интервью с Ильей Сегаловичем

На Вебпланете опубликовано интервью с Ильей Сегаловичем.
Хорошее интервью, стоит прочитать.

Написано Cherny в 5:21 PM

January 23, 2006

Новости Google вышли из беты

Google News вышли из беты. Новостной сервис от Google стартовал 23-го сентября 2002 года, т.е. находился в статусе бета более трех лет — 1219 дней, в настоящий момент собирает новости с 4500 новостных источников, по крайней мере так заявлено на странице о сервисе.

Какой сервис следующий на очереди для выхода из беты?

Написано Cherny в 10:45 PM | Комментариев (1)

December 22, 2005

YandSense

Объявлено о запуске рекламной сети Яндекса по показу текстовых объявлений.

Заявление громкое, но на данном этапе это всего лишь тестирование или бета. Отсюда можно узнать, что:

  1. Сайтам с менее чем 100 000 посетителей в месяц можно не беспокоиться;
  2. Договор заключается только с юридическим лицом или ПБОЮЛ.

В целом давно ожидаемые шаги, об этом много говорили и писали.

Написано Cherny в 5:23 PM

Инструкция по разбаниванию в Яндексе

На форуме появился подробная и последовательная инструкция по разбаниванию сайта в Яндексе.

Что можно сказать?
Помнится раньше, каждый бан был событием в худшем смысле этого слова. Об этом говорили опустив глаза, шепотом, без подробностей. Сейчас это обычные будни оптимизаторов рунета, рутина, рабочий процесс.

Сплошь и рядом пишут, что после «некоторых деятелей» приходится вытягивать сайт назад к жизни, разбанивать, очищать от грязи, перед всеми извиняться и только после этого начинать все заново. Или сразу начинать все заново с нуля и под другим именем.

Дизайн и вебмастеринг превратился в темплейтинг;
копирайтинг — в копипейстинг;
поисковая оптимизация — в раскрутку.
Термин «ракетчик» приобрел для рунета дополнительное толкование...

Заказчик, поинтересуйся куда задвигают твой сайт!

Написано Cherny в 2:16 PM

October 19, 2005

Дорвейщики

Я б в дорвейщики пошел, пусть меня научат! (via)

А я думаю, куда это Димок из Рунета пропал? :)

Написано Cherny в 8:37 AM | Комментариев (2)

October 5, 2005

Добавление сайта в поисковики

Один из альтернативных методов добавления сайтов в основные поисковые системы — размещение ссылки на сайт на оптимизаторском форуме.

На искомый сайт дружною гурьбой переходит большое количество оптимизаторов, с браузерами, обвешанными различными барами, расширениями, плагинами и прочими примочками. В результате, кроме баг-репорта от оптимизаторов, можно ожидать на сайте не менее дружную толпу поисковых роботов. И не надо никаких форм добавления...

Написано Cherny в 2:25 PM | Комментариев (5)

September 30, 2005

Yahoo! Site Explorer

Встречаем Yahoo! Site Explorer — удобный интерфейс для тех, кто не умеет пользоваться операторами site:, link: и linkdomain:

Написано Cherny в 12:54 PM

September 23, 2005

Google Toolbar для FireFox вышел из беты

Версия Google toolbar для FireFox вышла из беты. По их собственным заявлениям, добавили несколько расширений таких как Google Suggest.

Поставил, не нашел в баре ничего, похожего на Suggest, да и удалил сам бар, поскольку Suggest у меня и так есть.

Написано Cherny в 12:50 PM

September 1, 2005

Как продвигать сайт для украинской аудитории

На форуме Маузера подняли интересную тему — продвижение русскоязычного сайта для украинской аудитории. Как обычно ушли от первоначального вопроса немного в сторону. Один из оппонентов утверждает, что поисковиками пользуются «тематические» группы пользователей, например IT-people в основном используют Google и т.д. Причем еще высказывалось мнение, что Google плохо индексирует динамические страницы, тем более с параметром id.

Насчет тематичности аудитории полностью не согласен. Вопрос не в том, кто ищет, а в том, что ищут. Если есть необходимость найти какой-нибудь manual, то лучше использовать Гугль, по крайней мере у него «покрытие» больше. А нарыть что-либо на русскоязычных форумах — Яндекс. Здесь Google, ИМХО, проигрывает, но не от проблем с индексацией, а, скорее, из-за отсуствия морфологии, т.е. учета словоформ.

Где же на самом деле продвигать русскоязычный сайт для украинской аудитории? Прежде всего в Google, именно им пользуется около 40% украинской аудитории для поиска информации. Яндекс проигрывает более чем на корпус, хотя трафика дает больше.

Есть пара украинских сайтов, продающих услуги исключительно в Украине, по ряду причин (в основном тормознутость индексации роботами Яндекса) некоторое время получали трафик исключительно из Google. Потом проснулись роботы Яндекса, прошла пара апдейтов, пошел оттуда трафик, но при этом конвертация ухудшилась.

Ну и Мету с поиском Бигмира не упускать из виду.

Написано Cherny в 9:58 AM | Комментариев (1)

July 28, 2005

Тулбар Yahoo! для FireFox вышел из беты

Вчера анонсирована версия 1.0 Yahoo! Firefox Toolbar: Beta no more!
Только версии на русском пока нет.

Написано Cherny в 9:46 AM

June 14, 2005

Бигмир и оптимизаторы

Алексей Танчик озвучил официальное отношение Бигмира к оптимизаторам:

Официальное отношение бигмира к оптимизаторам - оптимизируйте на здоровье, если это повышает релевантность поиска...

Тем не менее перегибать палку не рекомендуется, так как за поисковый спам Бигмир исключает не только из поиска, но и из рейтинга.

Написано Cherny в 11:32 AM

May 6, 2005

Версия SEOBar для FireFox

Вышла версия SEOBar для FireFox. Узнал, как и многое другое, из SEOBlog. Бар для IE я ставил ради эксперимента еще во время тестирования оного, так что опыта эксплуатации именно этого бара практически нет, да и IE я почти не пользуюсь.

Сейчас сразу бросилось в глаза, что индикаторы PageRank и тИЦ не обновляются при переключении между табами.

Скоро при использовании FireFox из-за установленных баров я сами сайты не смогу увидеть! :)

Написано Cherny в 8:52 AM

April 26, 2005

Новый игрок на украинском рынке интернет-маркетинга

Чуть не пропустил сообщение о появлении «нового игрока на украинском рынке интернет-маркетинга» — компании «Мастер». После первого абзаца о поисковом продвижении сайта возникло ощущение, что где-то я это уже читал…

Несколько запросов в Google показали who is who — тексты, по крайней мере про поисковую оптимизацию, подчистую «слизаны» с сайта компании Текарт, например: оригинал, а это копия.

Вот такие они — новые игроки рынка!

Попутно, кстати, заметил, что у Текарта теперь отдельные сайты для каждого сервиса, а не поддомены, как раньше было. «Расклеиваются» в Яндексе! :)

Написано Cherny в 9:45 AM | Комментариев (1)

March 30, 2005

В семействе русских тегов прибавление!

В теме замечаний по Автоконтексту Бегуна г-н Васин упомянул тег <index>, которым специально для системы автоконтекста выделяется смысловая часть документа. Противовесом выделения смысловой части документа остается тег <noindex>, выделяющий «бессмысленную» часть документа и работающий для Яндекса и Рамблера.

Раньше производители браузеров вводили дополнительные теги для улучшения отображения страниц, в настоящее время все более-менее большие системы тоже вводят свои теги или параметры тегов, как nofollow. И все для того, чтобы облегчить работу своим «подслеповатым» роботам.

А HTML-документ уже сейчас можно разбивать на блоки для Яндекса, Рамблера, Бегуна.

Можно ожидать от Меты или Бигмира какого-нибудь <uaindex> в ближайшем будущем :)

Написано Cherny в 1:31 PM | Комментариев (2)

March 21, 2005

Firefox оптимизатора

Как выглядит браузер после выхода (via) AskJeevs Toolbar, Yahoo toolbar.

Написано Cherny в 10:02 AM | Комментариев (3)

February 15, 2005

Равенство зеркал в Яндексе

Сотрудники Яндекса неоднократно замечали, что при склейке зеркал учитывается вес ссылок и ссылочное ранжирование для всех "зазеркаленых" доменов. Одинаково ли?

Есть сайт, достаточно пожилой, живущий на домене site1.com. Большую часть жизни находится в первой пятерке по парочке среднеконкурентных запросов, причем успешно пережил серьезный редизайн без существенного ухудшения позиций. Во время редизайна был куплен хороший домен site2.com на роль главного зеркала из-за своей красивости.

Сказано - сделано! Для Яндекса все просто решается с помощью директивы Host в robots.txt. После свапа зеркал сайт с красивым адресом улетает в 3-4 десяток по всем запросам. Терзаемый смутными сомнениями, я, все той же директивой Host, указываю на старый адрес site1.com. Ждем зеркальщика, затем апдейт, после еще один для устаканивания результатов и... успешно возвращаем сайт в ту же первую пятерку по тем же запросам!

Можно, конечно, поверить в совпадения, кластера, коэффициенты и прочую магию, но лучше лишний раз не трогать работающую систему - вдруг все-таки разный вклад дают ссылки на основное и дополнительное зеркала. :)

Написано Cherny в 1:35 AM | Комментариев (5)

February 10, 2005

Yahoo! toolbar для Firefox

На официальном блоге Yahoo! сегодня презентовали Yahoo! toolbar для Firefox. Пишут, что тестировался под Mac, Windows, Linux, FreeBSD.

Из заявленных возможностей:

  • Быстрый доступ к поиску;
  • Закладки и custom buttons, которые хранятся на их серверах;
  • Функция поиска по открытому в браузере сайту;
  • История поисковых запросов;
  • Возможность перевода открытой страницы с помощью сервиса Babelfish;
  • Извещения о пришедших письмах;
  • Доступ одним кликом к Yahoo! Games, News Finance, Sports, etc.
  • Новая возможность: добавление одним кликом в My Yahoo! сайтов, которые предоставляют RSS/Atom feeds.

Поставил посмотреть: версия 0.2 бета, ничего особенно выдающегося нет, разве только удобно с почтой работать, но на Yahoo у меня ящиков активных нет.

Написано Cherny в 12:33 PM | Комментариев (1)

January 20, 2005

Параметр ссылки rel="nofollow" поддержали MSN и Yahoo

Активно обсуждаемый новый параметр тега ссылки rel="nofollow", предложенный командой Google, теперь поддерживают Yahoo и MSN. Достаточно быстро они договорились на этот раз. Спам в блогах уже достал всех, меня в том числе. Gray сейчас совсем комментарии отключил, Dimok недавно на спамеров жаловался, euhenio использует хитрые методы против спама...

Буду ждать патча MovableType, который добавит в движок соответствующую функциональность, самому лезть неохота

Ну и еще интересна реакция Яндекса и Рамблера на это нововведение, раньше задачи закрытия спамерских ссылок можно было решать с помощью тега <noindex>

Написано Cherny в 10:10 AM | Комментариев (2)

December 13, 2004

Статистика поисковых запросов Рамблера

В статистике поисковых запросов Рамблера добавили возможность выбирать месяц, по которому выдавать результаты. Так что теперь, кроме географии, можно отслеживать еще и динамику спроса.
По рефератам, например, спрос увеличился на порядок с августа по октябрь, то ли будет в декабре! :)

Написано Cherny в 11:00 PM

November 30, 2004

Значение снипетов в результатах поиска

В выдаче Яндекса два сайта по одному запросу на 2-м и 8-м месте. Заходов на оба сайта по этому запросу одинаковое количество, система статистики одна и та же, только снипет у сайта на 8-м месте намного привлекательнее. Вот что снипет животворящий делает!

Написано Cherny в 3:03 PM | Комментариев (3)

November 9, 2004

Индексация Рамблером Rollback

Рано я радовался по поводу индексации Рамблером этого сайта - сейчас в базе его не наблюдаю, робот приходил в ноябре один раз 7-го числа, "нюхнул" robots.txt и пропал. То ли базу откатили, то ли российский праздник День 7-го Ноября на робота плохо повлиял...

Написано Cherny в 4:04 PM

October 26, 2004

Как лучше анализировать серверные заголовки в PHP

До недавнего времени использовал функцию apache_request_headers() для того, чтобы проанализировать заголовки запроса сервера.
После того, как пара сайтов переехала на другие сервера, функция работать перестала. Причина оказалась в том, что PHP на новых серверах установлена как CGI-приложение, а не модуль Apache.

У меня кое-где на главных страницах стоит, вернее стоял, следующий код:
if (strstr($_SERVER['HTTP_USER_AGENT'], 'Googlebot') || /еще user-agents роботов/) {
$myheaders=apache_request_headers();
// дальше составляем и отправляем сообщение о приходе робота Х на сайт
}
При этом обычный пользователь с обычным браузером видел нужную страницу, а робот - пустую страницу с сообщением об ошибке "а нет такой функции!" Проблема обнаруживалась только после переиндексации, когда в выдаче вместо главной страницы появлялось нечто несуразное. Эдакий клоакинг наоборот.

Теперь во всех случаях, когда нужны серверные заголовки, анализирую переменные $_SERVER[HTTP_*], а про существование функции apache_request_headers() лучше забыть.

Написано Cherny в 10:30 PM | Комментариев (2)

October 6, 2004

BigMir: индексация "невидимых" страниц

На одном из сайтов с помощью mod_rewrite адреса документов (статей) имеют такой вид: http://www.site.ru/dir/324.html, где 324 - это ID статьи в БД. Заметил, что посетители часто просто отсекали "324.html", пытаясь заглянуть в http://site.ru/dir/. Повесил по этому адресу скрипт, который тупо выдавал список статей. На странице висят счетчики БигМира, Рамблера и ХотЛога.

Ссылки на /dir/ нигде нет, ни в одном поисковике этой страницы тоже нет. Ни в одном, кроме поиска Бигмира, причем робот его каждый раз исправно эту страницу забирает. Отсюда можно сделать вывод, что Бигмир, как и Рамблер, использует данные своего счетчика для построения URL list для индексации.

Написано Cherny в 1:18 PM | Комментариев (3)

Каталог свадебных пригласительных; Бортжурнал Symbol