-
Разделы сайта на поддомены или частями основного домена
В своем недавнем видео Мэтт Каттс вещает о том, как правильнее делать разделы сайта — выносить на поддомены или оставлять частями основного домена. Резюмируя сказанное Мэттом, на сегодня между поддоменами и разделами вроде как особой разницы нет. Раньше в результатах поиска Google выводилось до 2 ссылок с каждого поддомена и можно было теоретически забить выдачу только…
-
Дезавуиратор ссылок от Google
Вчера Google выпустил новый инструмент «Disavow links» для отключения влияния «плохих» ссылок на чужих сайтах. То есть специальный инструмент для борьбы с последствиями Пингвина. Оперативно отреагировал на релиз Сергей Кокшаров aka Devaka. В моем советском детстве продавался такой конструктор «Собери сам трансформатор»: набор пластин для сердечника, провода для обмоток, выводы. Просто оружие массового поражения! Зачем…
-
Урожайная неделя от Google
В первую неделю октября Google выпустил сразу несколько обновлений. Самое важное — это обновление алгоритма Пингвин (Penguin) от 5-го октября (у нас 6-го октября в субботу). Это всего третье обновление алгоритма, направленного на борьбу с некачественными ссылками. Алгоритм ввели в 24 апреля, второе обновление было через месяц — 26 мая, после чего никаких изменений в алгоритм…
-
Описание ошибок сайта в GWT
В Google Webmaster Tools анонсировали новое расширенное описание описание ошибок на сайте – проблем с DNS и доступом к robots.txt. Полез к себе в аккаунт посмотреть и с удовольствием обнаружил отсутствие каких-либо проблем с DNS и robots за последние 90 дней, несмотря на переезд на новый сервер в конце июля. Так что будем довольствоваться оригинальным…
-
Изменения в Google Ad Planner
Google Ad Planner – инструмент для оценки посещаемости, тематики сайтов, географии и соц-дема аудитории. В чем-то схожий с Alexa. Показывает хоть какие-то результаты для относительно крупных сайтов с посещаемостью от 2-3 тысяч посетителей посетителей в сутки. Если посещаемость недостаточная, честно пишет: “Планировщику рекламных кампаний не удалось найти достаточно данных для отображения о следующем объекте” Вчера…
-
Изменение SERP у Google
Roem.ru пишет об уменьшении количества результатов органического поиска с 10 до 7. Проверил – 10, как и было. SearchengineLand пишет об индексации Гуглом различных частей Facebook. Еще из недавних нововведений — изменение сниппета для ссылок на страницы, закрытые в robots.txt:«Описание веб-страницы недоступно из-за ограничений в файле robots.txt.»
-
Видео про конфигурирование параметров URL в GWT
Google сделали и выложили видео, а также используемые в видео слайды, где подробно объясняется как использовать инструмент «Параметры URL» в Google Webmaster Tools. Инструмент совсем не простой, чтобы его эффективно использовать, надо хорошо понимать логику работы конфигурируемого сайта, какие параметры за что отвечают, как проиндексировались страницы этими параметрами. С помощью инструмента «Параметры URL» можно легко…
-
Статус индексирования в Google и зеркала
Новый инструмент «Статус индексирования» в Google Webmaster Tools появился буквально на прошлой неделе. В отчете можно увидеть динамику индексации сайта за последний год с шагом в одну неделю. Лучше всего сразу переключаться в расширенный вариант, где, кроме проиндексированных документов, можно видеть графики не попавших в поиск (а-ля supplemental) и запрещенных в robots.txt страниц. Как раз…
-
robots.txt и кеш Google
Решил перепроверить в принципе уже известные факты о том, как ведут себя Яндекс и Google при запрете страниц в robots.txt. Хотя на самом деле речь в основном пойдет про Google, потому что поведение Яндекса вполне просто и прямолинейно. Есть два варианта: 1) Страница, страницы или разделы уже существуют и проиндексированы, после чего они закрываются от…