Новый проект SEOmoz по разоблачению поискового спама: хорошо это или плохо?
Исполнительный директор SEOmoz Рэнд Фишкин (Rand Fishkin) сообщил на своей
страничке в Google+ о том, что его компания сейчас разрабатывает новый проект, который поможет «классифицировать, выявлять и удалять/ограничивать ссылочный вес, получаемый от других сайтов/веб-страниц».
Вкратце, SEOmoz работает над созданием программы, которая позволит оптимизаторам определить, являются ли веб-страницы их сайтов или сайтов конкурентов спамовыми или нет. Если компании удастся это сделать, то вебмастера смогут заранее спрогнозировать реакцию Google на те или иные страницы, и следовательно, избежать каких-либо «наказаний» или даже исключения из индекса поисковика. Единственный «минус» этого проекта на данный момент – возможность намеренно или ненамеренно испортить репутацию того или иного оптимизатора. В связи с этим, Рэнд Фишкин даже обратился к сообществу вебмастеров с вопросом о том, стоит ли продолжать этот проект или нет.
«Отдельные члены нашей команды обеспокоены тем, что многие оптимизаторы будут недовольны, что с помощью нашей программы их спамовая деятельность будет предана огласке. Я лично считаю, что лучше иметь полную информацию по тому или иному вопросу, чем принимать решение на основе предположений или догадок. Я надеюсь, что наш проект будет полезен многим маркетологам при принятии решения о приобретении определенных ссылок или всем тем, кто получил пенальти и пытается от него избавиться.»
Обсуждение на
Google+.
50 обновлений от Google за апрель
В начале мая Google опубликовал
список своих изменений, которые он внес в поиск за апрель месяц. Всего их насчитывается 52, однако ниже представлены лишь наиболее значимые:
- Исправлены недочеты анализа ссылочных текстов (анкоров)
- Улучшен классификатор ключевых слов
- Обновлен алгоритм ранжирования ключевых запросов
- Больше внимания теперь уделяется авторитетности ресурсов и свежести их контента. Если материал свежий, но низкого качества, то он не получает никаких бонусов
- Увеличен индекса Google на 15% и у него появился новый слой индексации
- Обновлена выдача Google по новостям
- Результаты поиска стали разнообразнее, с точки зрения предлагаемых в выдаче доменов
- Усовершенствованы толкование запросов пользователя и распознавание его страны и языка
- Обновлена база Sitelinks
- Больше текста в сниппетах и меньше их повторов в расширенных Sitelinks
- Немного изменен алгоритм генерации альтернативных заголовков веб-страниц, которые стали более информативными и лаконичными
- Обновлен алгоритм по локальным навигационным запросам
- Усовершенствован безопасный поиск по картинкам и видео
- и многое другое…
Обсуждения на
Google+,
HighRankings Forum,
DigitalPoint Forums и
WebmasterWorld.
Алгоритмы Google не доверяют атрибутам Title с большим количеством ключевых слов
На
Google Webmaster Help один вебмастер пожаловался на не очень хорошие позиции своего сайта. Гуглер ДжонМу (JohnMu) проанализировал его ресурс и был поражен количеством атрибутов Title и использованным в них ключевых слов. По словам Джона, такое чрезмерное употребление атрибута заголовка запросто может вызывать подозрение у роботов Google.
«Глядя на конкретную страницу сайта (да и на многие другие), складывается впечатление, что большое количество контента «спрятано» именно в атрибутах Title. Для наших алгоритмов это может вызывать некоторое недоверие к ресурсу. В связи с этим, я рекомендую просмотреть все страницы сайта и убедиться, что атрибут заголовка используется должным образом и без злоупотребления.»
Обсуждение на
Google Webmaster Help.