Считаю до трех
С нами с 23.03.05
Сообщения: 12353
Рейтинг: 2918
|
Добавлено: 09/04/13 в 20:39 |
Сразу скажу, что старый топик на эту тему я читал.
Там предлагают запретить в robots.txt, но как это правильно сделать?
Два основных варианта:
User-agent: *
Disallow: /?x=
либо
Disallow: /?x=*
В тестерах файлов robots.txt фактически не работает ни один.
С первым - просто "no Disallow directive found" и линки вида /?x=8180.6450.9252.6643.5161 проходят свободно.
Со вторым - ошибка "No wildcard supported".
Как все-таки правильно?
|
|
|
|
С нами с 06.11.12
Сообщения: 1715
Рейтинг: 1136
|
Добавлено: 09/04/13 в 20:57 |
Траф с таким параметром шлют некоторые CJ скрипты. В параметре ?x=...... перечислены хеш-коды доменов, на которых побывал данный юник. Так что это нормальный траффик, блокировать его незачем. Если конечно не стоит задача вообще траф заблокировать.
|
|
|
|
Считаю до трех
С нами с 23.03.05
Сообщения: 12353
Рейтинг: 2918
|
Добавлено: 09/04/13 в 21:03 |
Собственно я знаю что это, откуда это берется и зачем существует
Задача - не дать поисковикам индексировать эти страницы, чтобы не забивать дублями. У меня на каждый домен 10-50 таких дублей. И это плохо.
|
|
|
|
С нами с 10.04.04
Сообщения: 2526
Рейтинг: 1447
|
Добавлено: 09/04/13 в 22:32 |
в Webmaster tools Гугля есть опция для робота воспринимать это как одну страницу
|
|
|
|
tuberotator.com
С нами с 12.09.06
Сообщения: 804
Рейтинг: 1478
|
Добавлено: 09/04/13 в 22:51 |
|
|
|
|
Считаю до трех
С нами с 23.03.05
Сообщения: 12353
Рейтинг: 2918
|
Добавлено: 09/04/13 в 23:12 |
Stup писал: | в Webmaster tools Гугля есть опция для робота воспринимать это как одну страницу |
Параметры URL? Счас попробуем.
Но хотелось бы конечно решение не только для Гугля. У Яху такая же проблема например.
|
|
|
|
Считаю до трех
С нами с 23.03.05
Сообщения: 12353
Рейтинг: 2918
|
Добавлено: 09/04/13 в 23:18 |
Тут вот какое дело - я боюсь что для сиджей с активной ротацией это будет не очень хорошо. Например - Гугль зашел на сидж по ссылке
domain.com/?x=5466.3457.4213
там прописан canonical - domain.com
Но фактически там ведь будет уже другая страница.
Может конечно это и не имеет значения, но рисковать не хочется.
|
|
|
|
tuberotator.com
С нами с 12.09.06
Сообщения: 804
Рейтинг: 1478
|
Добавлено: 09/04/13 в 23:31 |
EagleOwl:
гугл сейчас зашел сюда http://www.domain.com/
а через час зашел ... опять сюда http://www.domain.com/
ну и фактически другая страница ? (почему? из-за положения тумб ? нет ... глянь ютуб...)
так в принципе можно сказать и о http://www.domain.com/?x=5466.3457.4213 к http://www.domain.com/
в самой ротации плохого ничего нет, тем более, что при уже отротированном контенте положение тумб меняется относительно не часто. Другое дело когда странички совершенно разные в плане тайтлов и текстового содержимого.
В таком случае лучше использовать
Disallow: /?x=
в robots.txt
|
|
|
|
Считаю до трех
С нами с 23.03.05
Сообщения: 12353
Рейтинг: 2918
|
Добавлено: 09/04/13 в 23:45 |
Nux писал: | В таком случае лучше использовать
Disallow: /?x=
в robots.txt |
Вот жеж вопрос в том, что такая конструкция не хочет работать
|
|
|
|
tuberotator.com
С нами с 12.09.06
Сообщения: 804
Рейтинг: 1478
|
Добавлено: 10/04/13 в 00:02 |
а что у тебя за тестеры ?
почему ты решил что не хочет ?
|
|
|
|
Считаю до трех
С нами с 23.03.05
Сообщения: 12353
Рейтинг: 2918
|
Добавлено: 10/04/13 в 00:09 |
|
|
|
|
tuberotator.com
С нами с 12.09.06
Сообщения: 804
Рейтинг: 1478
|
Добавлено: 10/04/13 в 00:24 |
ты лучше посматри какие стандарты юзает сам гугл на рабочем robots.txt
http://www.google.com/robots.txt
вобще на самом деле рабочая спецификация robots.txt малость изменена и не соответствует на 100% тому, что было создано ~15 лет назад, поэтому не стоит доверять чекерам, лучше практике.
а если будет мало порой примеры robots.txt + query string
ну и стоит напомнить, что для гугла в мастертулзе есть возможность добавить параметр X в настройках сайта , но делать это не рекомендую .
....да и еще можешь проверять наличие $_GET['x'] и если true выводить мета ROBOTS
|
|
|
|
red apple
С нами с 23.06.09
Сообщения: 2216
Рейтинг: 2999
|
Добавлено: 10/04/13 в 00:44 |
rel canonical спасёт отца русской демократии?
Если мы говорим о сидже то ничего страшного в простановки кононикала нет, исходный код не меняется, всё распологается также, а альты и ссылки на гали это ерунда
|
|
|
|
Считаю до трех
С нами с 23.03.05
Сообщения: 12353
Рейтинг: 2918
|
Добавлено: 10/04/13 в 09:48 |
aewm писал: | rel canonical спасёт отца русской демократии?
|
Не спасет. Там проблема в шаблонах, короче нельзя так сделать.
|
|
|
|