Может ли слишком большая плотность ключевых слов в тексте интерпретироваться как «бойлерплейт» («boilerplate»)?
На Google Webmaster Help один вебмастер интересуется, почему слова, которые чаще всего используются на сайте, не появляются в отчетах по ключевым слова в Google Webmaster Tools? Похоже, что в данном случае Google интерпретирует такие «ключевые слова» как «бойлерплейт» или слишком часто повторяющиеся слова. Гуглер Джонатан Саймон комментирует это следующим образом:
«Список ключевых слов иногда не содержит слова, которые мы определяем как «бойлерплейт» или слишком часто повторяющиеся слова. По этому списку можно судить, как Google интерпретирует контент вашего сайта. Анализировать этот список нужно вместе с отчетом по топовым поисковым запросам вашего сайта в Google Webmaster Tools и реальным позициям вашего сайта по ключевым словам и фразам, по которым вы хотите ранжироваться. Если некоторые ключевые слова не отображаются в отчетах, то это ничего страшного и это никак не влияет на позиции сайта.»
Персонализированный поиск Google и ре-ранкинг мало влияют на SEO
В декабре Google объявил о том, что он будет персонализировать все поисковые результаты по умолчанию. Такая новость, безусловно, шокировала вебмастеров и оптимизаторов, поскольку все их усилия по оптимизации веб-ресурсов могли стать напрасными, ведь у каждого сурфера была бы своя выдача.
Однако недавно на Huomah Blog появился постинг о том, что сейчас не о чем волноваться, так как персонализированные поисковые результаты мало чем отличаются от обычных, по крайней мере, сейчас.
Массовая замена тэгов Title: Google медленно обновляет данные?
На WebmasterWorld появилась дискуссия на тему того, как Google воспринимает массовую замену тэгов Title. Топик начал один вебмастер, который решил перенести структуру старого сайта на свой новый ресурс, но забыл поменять тэги Title. Спустя четыре месяца после того, как он сделал массовую замену Title (чтобы они соответствовали новому и уникальному контенту нового сайта), Google по-прежнему отображает старые заголовки, которые не соответствую содержимому ресурса.
По мнению jdMorgan, администратора WebmasterWorld, один из моментов, которых Google не любит больше всего, это массовые и неожиданные изменения. В данном случае jdMorgan рекомендует ничего не делать, а просто ждать. После двух-трех индексаций «подозрительных» страниц ситуация должна сама наладиться и наконец появятся правильные тэги заголовков. А пока можно сосредоточить внимание на других аспектах оптимизации сайта.
На WebmasterWorld один вебмастер поделился своим успехом, которым он, честно говоря, сам удивлен. По его словам, его сайт, которому всего два месяца и у которого вообще нет обратных ссылок, но есть хорошая навигация, занимает первую позицию в Bing.
«В 2009 году мы начали трактовать 410 код состояния как «более постоянный» сигнал о том, что какой-то страницы сайта больше не существует.»
По-видимому, если Googlebot находит 410 код состояния, то он не индексирует страницу вообще, либо возвращается к ней через какой-то продолжительный период времени. Если же он находит страницу с 404 ошибкой, то он возвращается к ней чуть позже и даже не один раз.
Google наконец запустил социальный поиск, о котором так много говорили. Эта новая функция доступна всем по умолчанию, и чтобы ею воспользоваться надо сначала зайти в «Show Options», а затем сделать новый поисковый запрос уже на основе своего социального онлайн профиля.