Facebook теряет пользователей?
Согласно
отчетам Facebook, социальная сеть потеряла около шести миллионов американских пользователей. Их количество сократилось с 155,2 миллионов в начале мая до 149,4 в конце. Более того, не только жители США стали удалять свои аккаунты на Facebook. Их примеру последовали канадцы, чье присутствие в сети сократилось на 1,52 миллиона, жители Великобритании, Норвегии и России.
По мнению участников форума
WebmasterWorld, одна из причин ухода из Facebook – это чрезмерная коммерциализация проекта. В тоже время люди покидают ее, так как не хотят больше тратить свое время на общение в интернете. Ведь не секрет, что для кого-то социальная сеть это целый мир, который зачастую заменяет окружающую реальность. Некоторые пользователи понимают это и осознано удаляют свои аккаунты из Facebook.
Несмотря на некий намек падения популярности Facebook, он по-прежнему удерживает первые позиции по времени, которое сурферы тратят на нем в интернете. Даже сравнивая с Google, Facebook безоговорочно лидирует. Однако ему не удалось перегнать Google по количеству посетителей за май, хотя и планировал это сделать. В мае Google достиг отметки в один миллиард посещений (вместе с Google.com, YouTube.com, Gmail, Orkut и другими сервисами), а Facebook – всего лишь 714 миллионов.
Обсуждение о потерях в США на
WebmasterWorld.
Обсуждения о количестве посетителей за май на
WebmasterWorld и
Google Blogoscoped Forums.
Обновление «алгоритма Панды» 2.2
Если в мае мы писали об
обновлении «алгоритма Панды» 2.1, то в июне уже появилась Панда 2.2. Последствия этого апдейта, подтвержденного Google
официально, оказались как положительными, так и отрицательными. Кто-то наконец вернул себе прежние поисковые позиции, кому-то сделать этого не удалось, а некоторые только сейчас попали под фильтр алгоритма.
SEO-эксперт Дэнни Салливан (Danny Sullivan) написал свое видение происходящего. Он предполагает, что Панда больше напоминает
фактор ранжирования, нежели алгоритм. Ее можно сравнить с другими параметрами, которые являются частью алгоритма и несоответствие которым может привести к снижению поисковым позициям. Например, скрытый текст, платные ссылки, скопированный контент и так далее. Прав Дэнни или нет, пока не ясно. Но очевидно одно - Google Panda это некий фильтр, который выявляет сайты с некачественным контентом и понижает их позиции в Google.
По мнению обозревателя SERoundTable, Google следует начать присылать уведомления вебмастерам, чьи сайты пострадали от Панды. Почему бы им не дать второй шанс, четко объяснив причину попадания под фильтр и дав совет, как из него выйти?
Обсуждения Панды 2.2 на
WebmasterWorld,
Cre8asite Forums,
High Rankings Forums.
Мэтт Каттс об онлайн фильтрах как формы цензуры
В прошлом выпуске мы писали о том, что Эли Парисер (Eli Pariser) сделал доклад об онлайн-фильтрах, которые представляют собой некую форму цензуры в интернете. Более того, опрос среди вебмастеров на эту же тему выявил, что такого мнения придерживается 75% опрошенных. Недавно даже появилась новая поисковая система DuckDuckGo, которая якобы не предлагает никакой персонализированной выдачи, не использует никаких фильтров и пользователь получает только реальные и независимые результаты.
Некоторое время спустя на
HackerNews гуглер Мэтт Каттс наконец парировал Эли Парисер:
- «Если кто-то не желает получать персонализированную поисковую выдачу, для этого достаточно добавить в конец урла параметр "&pws=0", чтобы ее отключить, либо использовать анонимную версию Google Chrome. Персонализация предназначена для улучшения релевантности в целом и касается скорее порядка отображения сайтов в SERP, нежели их полного отсутствия/присутствия в выдаче.
- Персонализация оказывает гораздо меньше влияния, чем местоположение, определяемое IP-адресом пользователя. Чтобы отменить последнюю опцию, достаточно нажать на «изменить местоположение» и ввести нужный город или почтовый код в США.
- У нас действительно есть алгоритмы, которые специально предназначены для вывода разнообразных результатов в SERP. Например, есть алгоритм, который ограничивает количество отображаемых результатов с одного ресурса. Именно он помогает другим сайтам также появляться в поисковой выдаче. Для отображения оптимальных результатов поиска мы обращаем внимание на релевантность и разнообразие ресурсов, персонализацию и местоположение пользователя и на многое другое.»
Обсуждение на
HackerNews.