Tag: Google

  • Разделы сайта на поддомены или частями основного домена

    В своем недавнем видео Мэтт Каттс вещает о том, как правильнее делать разделы сайта — выносить на поддомены или оставлять частями основного домена. Резюмируя сказанное Мэттом, на сегодня между поддоменами и разделами вроде как особой разницы нет. Раньше в результатах поиска Google выводилось до 2 ссылок с каждого поддомена и можно было теоретически забить выдачу только…

  • Дезавуиратор ссылок от Google

     Вчера Google выпустил новый инструмент «Disavow links» для отключения влияния «плохих» ссылок на чужих сайтах. То есть специальный инструмент для борьбы с последствиями Пингвина. Оперативно отреагировал на релиз Сергей Кокшаров aka Devaka. В моем советском детстве продавался такой конструктор «Собери сам трансформатор»: набор пластин для сердечника, провода для обмоток, выводы. Просто оружие массового поражения! Зачем…

  • Урожайная неделя от Google

    В первую неделю октября Google выпустил сразу несколько обновлений. Самое важное — это обновление алгоритма Пингвин (Penguin) от 5-го октября (у нас 6-го октября в субботу). Это всего третье обновление алгоритма, направленного на борьбу с некачественными ссылками. Алгоритм ввели в 24 апреля, второе обновление было через месяц — 26 мая, после чего никаких изменений в алгоритм…

  • Google+ используют для SEO

    В сентябре Google заявил о 400 миллионах зарегистрированных пользователях сети Google+, при этом из них 100 миллионов активных пользователей в месяц. В статье E-marketer приводятся данные опроса западных интернет-маркетологов. Согласно опросу только у половины интернет-маркетологов (54,9%) Google+ входит в топ-5 сайтов для маркетинга с социальных сетях, по сравнению с 87,7% Facebook и 82,7% Twitter. Большинство…

  • Описание ошибок сайта в GWT

    В Google Webmaster Tools анонсировали новое расширенное описание описание ошибок на сайте – проблем с DNS и доступом к robots.txt. Полез к себе в аккаунт посмотреть и с удовольствием обнаружил отсутствие каких-либо проблем с DNS и robots за последние 90 дней, несмотря на переезд на новый сервер в конце июля. Так что будем довольствоваться оригинальным…

  • Изменения в Google Ad Planner

    Google Ad Planner – инструмент для оценки посещаемости, тематики сайтов, географии и соц-дема аудитории. В чем-то схожий с Alexa. Показывает хоть какие-то результаты для относительно крупных сайтов с посещаемостью от 2-3 тысяч посетителей посетителей в сутки. Если посещаемость недостаточная, честно пишет: “Планировщику рекламных кампаний не удалось найти достаточно данных для отображения о следующем объекте” Вчера…

  • Изменение SERP у Google

    Roem.ru пишет об уменьшении количества результатов органического поиска с 10 до 7. Проверил – 10, как и было. SearchengineLand пишет об индексации Гуглом различных частей Facebook. Еще из недавних нововведений — изменение сниппета для ссылок на страницы, закрытые в robots.txt:«Описание веб-страницы недоступно из-за ограничений в файле robots.txt.»

  • Видео про конфигурирование параметров URL в GWT

    Google сделали и выложили видео, а также используемые в видео слайды, где подробно объясняется как использовать инструмент «Параметры URL» в Google Webmaster Tools. Инструмент совсем не простой, чтобы его эффективно использовать, надо хорошо понимать логику работы конфигурируемого сайта, какие параметры за что отвечают, как проиндексировались страницы этими параметрами. С помощью инструмента «Параметры URL» можно легко…

  • Статус индексирования в Google и зеркала

    Новый инструмент «Статус индексирования» в Google Webmaster Tools появился буквально на прошлой неделе. В отчете можно увидеть динамику индексации сайта за последний год с шагом в одну неделю. Лучше всего сразу переключаться в расширенный вариант, где, кроме проиндексированных документов, можно видеть графики не попавших в поиск (а-ля supplemental) и запрещенных в robots.txt страниц. Как раз…

  • robots.txt и кеш Google

    Решил перепроверить в принципе уже известные факты о том, как ведут себя Яндекс и Google при запрете страниц в robots.txt. Хотя на самом деле речь в основном пойдет про Google, потому что поведение Яндекса вполне просто и прямолинейно. Есть два варианта: 1) Страница, страницы или разделы уже существуют и проиндексированы, после чего они закрываются от…