- Новости
- Статьи
- Поисковые системы
- Дизайн и Юзабилити
- Законы / Финансы
- Маркетинг
- Порно контент
- Ниши и психология
- Партнерские Программы
- Траффик-Менеджмент
- Сервисы
- Программинг
- Софт и Скрипты
- Хостинг / Железо
- Интервью
- Веб камеры
- Путешествия
- История секса
- Форум
- FAQ
- Каталог
- Опросы
- Участники
|
CТАТЬИ
Раздел: Поисковые системы
Штрафы за дублирование контента: проблемы с фильтром Google
Может, люди просто придираются к Google?
Так почему же столько разговоров и дискуссий и споров ведется именно вокруг фильтра Google? Возможно потому, что никто не может взять в толк, как определяется дублированный контент. А если честно, толку никакого здесь нет. Зачем нужно затевать масштабные действия по избавлению от дублированного контента, если никаких усилий, со стороны Google, не делается для определения того, что же такое дублированный контент на самом деле, и где первоисточник контента? Алгоритмы Google всегда было сложно постигнуть, но когда фильтр, предназначенный для избавления от дублированного контента, удаляет заодно и первоисточник, - это уже не удивляет, а бесит. В конце концов, почему кто-то должен пожинать плоды того контента, над созданием которого вы напряженно работали, просто потому, что Google выбрал именно его сайт? И хотя я совершенно уверена в том, что Google преднамеренно не выбирает фаворитов, не подтасовывает ранкинг и не корректирует вручную позиции нужных сайтов, многие напряженно работающие вебмастера воспринимают это именно так. Справедливо ли это? Не совсем.
Продолжая линию за горизонт, выясняется, что некоторое влияние оказывается на сайты, которые работают с Google AdSense - они позиционируются лучше в результатах запросов. Пожалуйте, перед нами коммерчески зависимые результаты поиска, что яростно отвергается в программном заявлении Google.
Есть некоторые мысли по поводу того, воспринимает ли Google дублированный контент с кешированных ссылок таким же образом. На форуме, один из участников написал по этому поводу: «Что случится, если другая поисковая система, у которой есть фильтрация дублированного контента, получит возможность спайдерить кешированные ссылки результатов поиска Google, но не будет подчиняться требованиям файла robots.txt? Не случится ли так, что кешированная версия Google, которая технически обладает глубиной нулевого порядка, даже на сайте с громадной популярностью ссылок, заставит вытеснить вашу страницу как страницу с низким рангом? Просто предположение, над которым можно задуматься». Это высказывание намного ближе к истине, чем может показаться на первый взгляд, и моя голова идет кругом при мысли об этом.
Новый спам
Google остается крайне уязвимым, признают они это или нет, к произвольным воздействиям спама. Именно спамовые технологии, в первую очередь, повлекли за собой создание этих фильтров. Однако можно ли вернуть все назад? Скорее всего, нет. Мы столкнулись с масштабной проблемой, когда сторонники «белых» технологий пытаются следовать правилам, а бессовестные спамеры не замечают правил как таковых. При этом спамеры выигрывают. Обидно. В данном случае, речь идет даже не о спамерах и их намерениях. Если у вас лучший PageRank, чем у Вани Иванова, то контент Вани Иванова будет лучше смотреться на вашем сайте, чем на его собственном. Неужели релевантность ссылок настолько влияет на критерии определения релевантности в Google, что они не могут определить, какой контент послужил первоисточником, а какой был продублирован? Для меня здесь все довольно очевидно.
Термины, подобные 302 Хайджеку, Google-Bombing, и Google-Washing, появились недавно. О некоторых вы, возможно, даже не слышали, но суть их концепции довольно проста. В основе лежат технологии, которыми пользуются как новоявленные жулики, так и старомодные спамеры. Они пытаются повлиять на результаты поисковых запросов, путем атак на конкурентов, преднамеренно или нет. Уверяю вас, что спамеры делают это осознанно. Вместо того, чтобы следовать правилам для достижения победы, они занимаются саботажем результатов во вред конкурентам, даже если это сработает всего на несколько недель. В самом начале Google отрицал, что кто-то может повлиять на ваши ранкинги, заявляя, что это совершенно невозможно. Теперь мы видим, что ситуация изменилась и страница Google с ЧАВО вебмастеров обновилась: «Конкурент практически ничего не может сделать, чтобы повредить вашему ранкингу или убрать ваш сайт из нашего индекса».
Для описания типа поведения, при котором пытаются получить преимущество за счет фильтров дублированного контента, возник целый набор терминов. Многие из них появились благодаря тому, что «наказание со стороны фильтра дублированного контента» постоянно на слуху. Google-washing, Google-bombing, dupe-wash, source wash и другие. По сути, они означают одно и то же. Материал-первоисточник вымывается за счет массы дублированного контента, разбросанного по всей Сети. Вы публикуете статью, или сабмитите ее распространителям статей, затем миллионы блогов или жуликов перепечатывают ваш оригинальный контент, и первоисточник пропадает из результатов запросов.
302 Хайджекинг – это совершенно другой зверь. Речь идет о другом сайте, который листит свои URL, хотя клики на них переадресуются на ваш домен. Зачем им это надо? Трафик. Их не волнует, одобряете ли вы их действия, или нет.
20.02.06
Источник: Seochat. Автор: Jennifer Sullivan Cassidy. Перевод: Seva.
|