Google говорит:
«Как известно, наша политика подразумевает, что участникам не позволяется кликать на их собственных объявлениях – независимо от причины. Поэтому мы стали получать большое количество писем от участников с уведомлением, что они случайно кликнули на собственные объявления. Если вы относитесь к этой группе участников, то мы выражаем вам благодарность за то, что вы следите за собственным аккаунтом и пытаетесь содержать его в порядке. Мы понимаем, что случайные клики могут случаться время от времени, поэтому нет необходимости сообщать нам о каждом подобном случае.
Так что, расслабьтесь. Если сможете.
Обсуждение на
WebmasterWorld и
Google Groups.
Как заставить пользователей добавлять ваш сайт в закладки: традиционные букмарки против социальных букмарок
Традиционный букмаркинг, похоже, устарел. Добавление букмарок в браузер сменилось, для многих, более новыми методами – сайтами социального букмаркинга.
Однако, не каждый знает об этих сайтах социального букмаркинга. С трудом расстаемся мы и с привычными методами добавления закладок. Ветка на
Cre8asite Forums затрагивает этот вопрос. Администратор EGOL высказывает предположение, что традиционные средства букмаркинга останутся нетронутыми, а методы социального букмаркинга, подобные сайту AddThis.com, не обязательно воплотятся в нечто стоящее – или разовьются в дополнительный способ букмаркинга.
Все сходятся в том, что нужно делать следующее:
Для большинства пользователей закладка на сайт означает некое действие в браузере. Для остальных можно добавить мини-иконки социального букмаркинга. Это будет намного честнее.
С другой стороны, нужно ли делать сайты только с социальными букмарками, или с браузерными букмарками, их сочетание или просто текст «нажми Ctrl-D чтобы сделать закладку на сайт!» ИМХО, нужно какое-то разумное сочетание текстовых закладок и сайтов социального букмаркинга.
Для тех, кто еще не готов погрузиться в царство социального букмаркинга, нужно удостовериться, что ваш сайт может справиться с опцией букмаркинга.
Обсуждение на
Cre8asite Forums
Помогают ли XML карты сайта в поисковой оптимизации?
В ветке на
Search Engine Watch Forums был задан вопрос - стоит ли использовать XML-карту сайта при оптимизации в поисковых системах.
Ответ, судя по комментариям других участников форума, – ДА.
Google sitemaps – это система, которая сообщает G о том, какие страницы содержит ваш вебсайт. Если URLы вашего сайта содержат параметры, то googlebot не будет слишком в них углубляться, особенно если параметров несколько (больше двух). Поэтому стоит создать файл с картой сайта, чтобы сообщить Google, какие страницы содержатся на вашем сервере. Тогда googlebot сможет пройтись по указанным там URL – с которыми в противном случае у него могут быть проблемы.
Однако инициатор дискуссии в замешательстве – его файл называется feed.xml, и он «заточен» на популярные кейворды. Сообщается, в частности, что PageRank страницы равен 4.
Дэнни Салливан (Danny Sullivan) проясняет подобную «аномалию».
Не вызывает сомнения, что у каждой страницы может быть PR, если вы ставите на нее ссылки. Все эти ссылки суммируются. Однако передается ли куда-то этот PR? Давайте посмотрим на кэшированную копию вашей страницы: *** «Ссылки» на самом деле не являются настоящими ссылками – PR по ним не передается. По правде говоря, Google вполне может парсить URL для использования в расчетах PR – если захочет. Но рассчитывать на это я бы не стал. По сути, RSS используется для объединения контента. Он помогает Google разобраться в наличии страниц на вашем сайте, но особого толка в размещении ссылок на XML файл нет.