Google понимает JavaScript: что в таком случае делать с дублированным контентом?
Сейчас, когда Google понимает JavaScript и формы, оптимизаторам и вебмастерам нужно придумывать новые способы управления дублированным контентом.
Раньше многие сайты применяли фильтры (по цвету, размеру, цене и т.д.), используя выпадающее меню на JavaScript. Google обычно избегал таких форм и не было поводов для беспокойства, что Google распознает одинаковый, но отфильтрованный материал.
Однако на сегодняшний день вебмастерам нужно придумать что-то новое, чтобы Google не индексировал повторяющийся контент.
В одном из топиков на
WebmasterWorld ведется дискуссия на эту тему и даются советы по решению этой проблемы. Вот некоторые из них:
- Следует использовать дублированный материал во внешнем Js и применять innerHTML;
- Следует использовать XmlHTTPRequest (GET), чтобы получить данные в XML-формате и затем отобразить их на странице;
- Следует использовать Ajax POST, чтобы получить XML-контент;
- Следует использовать robots.txt, чтобы блокировать отдельные файлы и/или группу страниц.
Существует также другие пути решения этого вопроса, и использование только JavaScript – не самый лучший из них.
Обсуждение на
WebmasterWorld
Изменения в рейтинговой системе Alexa
В последнее время рейтинговая система Alexa претерпела некоторые изменения. Согласно официальным заявлениям, обновленная версия «собирает данные из нескольких ресурсов, и помогает вебмастеру более точно оценить популярность его сайта среди всех серферов интернета».
В связи с изменениями алгоритмов подсчета трафика большинство пользователей Alexa могли наблюдать значительный спад в ранжировании своих сайтов. Пока о значении показателей не стоит волноваться, поскольку до сих пор ведутся пересчеты и реальные позиции сайтов еще точно не выявлены.
Обсуждение на
DigitalPoint Forums и
Webmaster Talk
Хостинговая компания заявляет, что скорость сервера существенно влияет на SEO
Как стало известно из одной дискуссии на форуме
Cre8asite Forums , английская хостинговая компания
UKFast опубликовала официальное сообщение по поводу взаимосвязи скорости сервера и SEO.
В этом документе говорится о том, что скорость сервера является важным компонентом для продвижения сайта.
Скорость отклика сайта помогает поисковым машинам оценивать релевантность сайта, потому что скорость является одним из критериев успешного сайта.
Чем мощнее и быстрее сервер, тем быстрее загружается сайт, который в связи с этим занимает более высокое положение при выдаче результатов поисковой системой.
…Это связано с тем, что Google поощряет успешные сайты, которые предоставляют отличный сервис для серферов. Более того, быстрый сервер означает, что для поисковых роботов легче обрабатывать подобные сайты. Это в свою очередь ведет к тому, что последние индексируются на более регулярной основе и обновляются поисковыми системами чаще.
В техническом плане, очень медленный сервер действительно может отрицательно повлиять на позиции Вашего сайта в поисковых системах. Но может ли супер быстрый сервер улучшить его положение, остается вопросом.
Обсуждение на
Cre8asite Forums