В конце марта стало известно, что Google закрыл еще одну сеть блогов BuildMyRank.com, которая долго и успешно существовала в Интернете. На все сайты, выявленные в этой схеме, было наложено пенальти, а некоторые и вовсе исключены из индекса поисковика. Представители BuildMyRank.com подтвердили «разоблачение» и теперь возмещают убытки своим клиентам.
Ходят слухи, что это не единственный случай, и что Google прикрыл еще несколько таких «проектов». Интересно, подобные «наказания» сетей блогов носят массовый характер? И насколько оправдано участие в таких схемах для достижения краткосрочных SEO-целей?
Bing занимает четкую позицию по мобильному SEO: единый URL-адрес
Дуэйн Форрестер (Duane Forrester) из Microsoft опубликовал на Bing Search Blog очень важное заявление по мобильному SEO. По его словам, Bing придерживается политики «Один URL-адрес для одного контента».
«Мы хотим сохранить простоту в Bing и придерживаемся политики «Один URL для одного контента. Незачем усложнять себе ситуацию, создавая дополнительные URL-адреса для разных платформ (для десктопной версии, мобильной и так далее.)»
Дуэйн также подчеркивает преимущества такого подхода:
При наличии одного URL-адреса для всех платформ, все «сигналы» ранжирования концентрируются именно на нем. Например, у большинства мобильных URL-адресов нет входящих ссылок с других сайтов, поскольку мало кто ссылается на мобильные версии сайтов.
Чем меньше URL-адресов у ресурса, тем меньше времени требуется поисковым системам его проиндексировать, и, следовательно, тем меньше они занимают ширину канала во время индексации.
Возможно, самое главное преимущество – меньше головной боли для вебмастеров! Не надо ни обновлять, ни каким-либо образом поддерживать отдельную мобильную версию сайта.
Однако в то же время Bing не предлагает делать так, чтобы каждый мобильный URL-адрес совпадал с десктопным. Ведь иногда сайту могут потребоваться отдельные целевые страницы для его мобильной версии. В таких случаях Bing предложит вам по желанию заблокировать ненужные для вас URL-адреса с помощью robots.txt или Webmaster Tools.
26 марта гуглер Мэтт Каттс опубликовал свое видео, в котором попросил оптимизаторов и вебмастеров не блокировать свои CSS и JS-файлы от индексации GoogleBot-ом. Ему непонятны причины таких действий, ведь робот Google отлично справляется с подобным контентом, а значит у него появляется более четкое представление о содержании всего ресурса.
В связи с этой новостью на SERoundTable был проведен опрос «Блокируете ли вы свои CSS и JS-файлы от индексации GoogleBot-ом?». Результаты показали следующее: