С нами с 10.02.07
Сообщения: 376
Рейтинг: 488
|
Добавлено: 26/11/14 в 07:50 |
Нубский вопрос, но как убрать из индекса гугла сабдомен cdn.domain.com ?
|
|
|
|
С нами с 24.10.04
Сообщения: 18881
Рейтинг: 9010
|
Добавлено: 26/11/14 в 08:08 |
проще всего запретить в robots.txt
|
|
|
|
С нами с 10.02.07
Сообщения: 376
Рейтинг: 488
|
Добавлено: 26/11/14 в 08:36 |
а как это сделать, если сабдомен ссылается на CDN, куда robots.txt класть?
есть запись cdn.domain.com as cname blabla.cdn.net
|
|
|
|
С нами с 24.10.04
Сообщения: 18881
Рейтинг: 9010
|
Добавлено: 26/11/14 в 08:45 |
robots.txt класть в cdn.domain.com
писать что-то вроде (надо уточнить):
Код: |
User-agent: *
Disallow: /
|
|
|
|
|
С нами с 10.02.07
Сообщения: 376
Рейтинг: 488
|
Добавлено: 26/11/14 в 09:00 |
что в роботс писать понятно, не понятно куда его класть, если сабдомен к моему серверу не относится никак
|
|
|
|
С нами с 24.10.04
Сообщения: 18881
Рейтинг: 9010
|
Добавлено: 26/11/14 в 09:09 |
|
|
|
|
Любитель хорошего ;)
С нами с 08.06.07
Сообщения: 16151
Рейтинг: 6269
|
Добавлено: 26/11/14 в 10:25 |
Если бы можно было у себя разместить такой robots.txt.
Вижу такой выход: вычисляешь (спрашиваешь у прова?) ip cdn-Бота, который тянет с тебя файлы.
Отдаёшь ему нужный файл robots.txt ("запрещаю всё и всем").
В итоге на cdn должен упасть нужный файл, а с твоего сервера продолжает грузиться "разрешаю всё и всем" или что-то иное.
|
|
|
|
С нами с 17.12.00
Сообщения: 1653
Рейтинг: 1082
|
Добавлено: 26/11/14 в 13:30 |
В хтакцесс на корне домена
Код: |
RewriteEngine On
RewriteCond %{HTTP_HOST} cdn\.domain\.com$
RewriteRule ^robots\.txt$ robots_dis.txt
|
файл тоже на корне домена
robots_dis.txt
Код: | User-agent: *
Disallow: / |
хотя я может что-то и путаю
|
|
|
|
С нами с 10.02.07
Сообщения: 376
Рейтинг: 488
|
Добавлено: 26/11/14 в 17:00 |
Nikso: то что надо, спасибо всем рейтинга насыпал)
|
|
|
|
С нами с 16.04.14
Сообщения: 55
Рейтинг: 62
|
Добавлено: 28/11/14 в 20:53 |
главное чтобы rel=canonical стоял на всех страницах.. тогда хоть тыща субдоменов .. и защита от скреперов
|
|
|
|
С нами с 10.02.07
Сообщения: 376
Рейтинг: 488
|
Добавлено: 28/11/14 в 21:54 |
сообразил такое решение
в .htaccess
Код: [развернуть] | RewriteRule ^robots.txt$ robots.php |
в robots.php проверяем переменную $_SERVER['HTTP_X_HOST'] и выдаем нужный вариант роботса
вариант Nikso не работает(
|
|
|
|
С нами с 19.10.11
Сообщения: 87
Рейтинг: 135
|
Добавлено: 29/11/14 в 09:03 |
Зачем так сложно? Куда смотрит origin cdn?
Допустим в папку /home/domain.com/img/ тогда в эту папку и кидаем robots.txt и он будет доступен по урлу http://cdn.domain.com/robots.txt
|
|
|
|
С нами с 10.02.07
Сообщения: 376
Рейтинг: 488
|
Добавлено: 29/11/14 в 11:35 |
в корень домена смотрит, как иначе-то
Может кто знает, как переменную http_x_host использовать в htaccess, похоже нет такой возможности. В http_host просто домен.
Собственно проблема в целом вот в чем. Двигаю сайт http://domain.com/ в гугле. Лью траффик, проставляю ссылки. В итоге по запросу "domain" вижу в гугле на второй странице http://cdn.domain.com/. А чтобы увидеть там http://domain.com/, надо дойти до хз какой страницы, кликнуть по ссылке о том, что некоторые похожие результаты скрыты . Это то ли гугл ебанутый, то ли как.
Последний раз редактировалось: Tartar (29/11/14 в 12:41), всего редактировалось 1 раз
|
|
|
|
С нами с 19.10.11
Сообщения: 87
Рейтинг: 135
|
Добавлено: 29/11/14 в 12:38 |
Ну можно и не в корень настроить, у нас так.
Если смотрит в корень то можно так:
Код: | RewriteEngine On
RewriteCond %{HTTP:X-HOST} cdn\.domain\.com$
RewriteRule ^robots\.txt$ robots_dis.txt
|
только убедись что файлы .txt не обрабатываются nginx если он стоит.
|
|
|
|
С нами с 10.02.07
Сообщения: 376
Рейтинг: 488
|
Добавлено: 29/11/14 в 13:02 |
Salis: то, что надо, спасибо тебе большое! Про %{HTTP:X-HOST} не встречал нигде.
|
|
|
|