Клоакинг: скрытие рекламы от GoogleBot
На
WebmasterWorld писал вебмастер, который хотел спрятать рекламу от Google и в связи с этим заинтересовался, насколько это противоречит правилам поисковой системы.
Действительно ли Google примет это за «скрытие контента»? Ответ на этот вопрос есть в службе поддержки Google:
Клоакинг заключается в том, что пользователи и поисковые системы видят разный контент или разные URLs. Клоакинг считается нарушением правил, прописанных в Руководстве для вебмастеров, потому что пользователи получают не те результаты, которые они ожидают увидеть.
Некоторые примеры клоакинга включают:
- Использование текстовой HTML-страницы для поисковых систем, в то время как пользователи видят страницу с картинками или Flash;
- Включение текста или ключевых слов в страницу только когда user-agent, а не "живой" посетитель запрашивает страницу.
В данном случае вебмастер хочет показывать рекламу только зарегистрированным пользователям. Так как GoogleBot не может зарегистрироваться, он увидит то, что видит незарегистрированный пользователь, т.е. контент без рекламы.
Таким образом, если GoogleBot и незарегистрированный пользователь видят одно и то же, – это не считается клоакингом.
Обсуждение на
WebmasterWorld.
Пенальти внутренней перелинковки?
На
WebmasterWorld писал один вебмастер, который управляет 150 сайтами, 3 из которых упали примерно в одно и то же время. Единственный объединяющий фактор – это текст анкора, который использовался на домашней странице для ссылки на нее же.
Вебмастер уверен, что сайты были наказаны именно из-за стандартного текста, указывающего на тему сайта. Он пишет:
Из 150 сайтов, которые я вел, 3 упали пару месяцев назад. И единственное, что их объединяет, как мне кажется, - все ссылки на домашнюю страницу включают главное ключевое слово.
"Коты" – один анкор на домашнюю страницу.
"Мойка окон" – другой анкор.
Обсуждение на
WebmasterWorld.
Когда Google не индексирует контент
На
Google Webmaster Help один вебмастер жалуется по поводу того, что количество проиндексированных Google страниц, которые содержатся в файле Sitemap, значительно сократилось.
Лучший способ узнать, сколько страниц сайта было проиндексировано, - загрузить XML Sitemap файл и сравнить количество добавленных в документ URLs и количество проиндексированных. Если число примерно совпадает – замечательно. Если количество проиндексированных страниц увеличивается – еще лучше. Если же их число падает – стоит задуматься.
Гуглер Gary Illyes пишет по этому поводу:
Мы улучшили алгоритмы таким образом, что они не будут повторно индексировать страницы, которые не содержат полезной для пользователей информации. Я взглянул на страницы, которые ранее были проиндексированы, а теперь не индексируются. Их немного, и причина заключается в отсутствии «живого» контента.
Gary показал примеры страниц, которые выдают «мягкую» 404 ошибку (вместо «не найдено» возвращается стандартная страница с кодом «200 OK»). Также он привел примеры пустыx страниц, которые были проиндексированы, и примеры URLs в Sitemap, которые ссылаются на неканонические URLs.
«Здоровым» сайтам нужны качественные ссылки, контент, редиректы и правильные заголовки ответа HTTP. В противном случае Google перестанет индексировать или даже сканировать эти URLs.
Обсуждение на
Google Webmaster Help.