В чем сила, БРАТ?
С нами с 22.03.05
Сообщения: 749
Рейтинг: 246
|
Добавлено: 25/11/05 в 06:19 |
хочется уточнить такой момент, если запрещена кака нибудь папка,
то поисковики не видят этих сылок, то есть их как будто не существет?
правильно?
и правилораспросраняется на все субпапки запрещеной папки.
и просба пример запрета индексации папки как писать?
рейтинг будет
|
|
|
|
В чем сила, БРАТ?
С нами с 22.03.05
Сообщения: 749
Рейтинг: 246
|
Добавлено: 25/11/05 в 08:29 |
а вот еще можно ли субдомен запредить к индексации,
то есть именно на главном домене сделать робот тхт и на нем написать что такие субдомены к индексации запрещены , будет ли это работать?
|
|
|
|
С нами с 21.04.01
Сообщения: 666
Рейтинг: 436
|
Добавлено: 25/11/05 в 10:05 |
гугл очень часто игнорирует запреты в robots.txt .
на каждом субдомене делать robots.txt надо.
|
|
|
|
Раздаю инвайты, ищу линк-трейд
С нами с 20.08.04
Сообщения: 16671
Рейтинг: 8593
|
Добавлено: 25/11/05 в 10:31 |
|
|
|
|
С нами с 10.01.03
Сообщения: 2655
Рейтинг: 552
|
Добавлено: 25/11/05 в 11:25 |
Eklmn, я ни разу не видел что бы гугль пригнорировал роботс.
wdfrretevw, неправильно. Запрос роботсом запрещает БРАТЬ эти урлы. Но не запрещает видеть ссылки на них. Смотри: сюда
|
|
|
|
С нами с 21.04.01
Сообщения: 666
Рейтинг: 436
|
Добавлено: 25/11/05 в 13:54 |
|
|
|
|
С нами с 10.01.03
Сообщения: 2655
Рейтинг: 552
|
Добавлено: 25/11/05 в 18:18 |
Eklmn, об этом много говорят, но де-факто все случаи сводятся к тому, как интерпретирует поисковик некорректный роботс. Гугль игнорирует части не по стандарту написанные.
Например во второй ссылке, где дан урл, черным по белому разъяснили причины "игнорирования".
А в четвертой черным по белому повторено то что я выше сказал. Это непонимание что роботс не запрещает урлы в выдаче, а запрещает боту обращаться к самому файлу.
|
|
|
|
С нами с 21.04.01
Сообщения: 666
Рейтинг: 436
|
Добавлено: 25/11/05 в 20:22 |
я не собираюсь с тобой спорить...
все поисковики понимают правильно robots.txt ,
а гугла придумала свои правила и по ним живет.
покажи мне урл хоть одного поисковика где нужно вбивать
запрещенные к индексации урлы ,чтобы их удалили из выдачи.
|
|
|
|
www.phpdevs.com
С нами с 24.10.02
Сообщения: 16633
Рейтинг: 16105
|
Добавлено: 25/11/05 в 20:44 |
Линки из роботс все равно участвуют в индекации, только в выдаче их не видно. Это к гуглу применимо.
|
|
Пишу на php/mysql/django за вменяемые деньги.
Обращаться в личку.
|
2
|
|
|
С нами с 10.01.03
Сообщения: 2655
Рейтинг: 552
|
Добавлено: 25/11/05 в 21:32 |
Eklmn, поисковики как раз понимают правильно. Например yahoo или msn.
Ни один из них, в полном соответствии с роботс, не берет эти файлы. Но они в курсе о ссылках которые туда ведут и в курсе о существовании некоторых урлов. Цитата с http://www.robotstxt.org/wc/faq.html#prevent Цитата: | the basic concept is simple: by writing a structured text file you can indicate to robots that certain parts of your server are off-limits to some or all robots |
То есть вопрос включения в индекс вообще не регламентируется роботсом. Роботс предназначен ТОЛЬКО для запрета роботам посещать те или иные страницы. И это касается не только поисковых роботов, а вообще любых. Вопрос наличия страницы в индексе вообще не имеет отношения к делу.
Stek, что значит "линки участвуют в индексации"? Факт существования - да. Содержимое урлов - нет. Линки прекрасно видно в выдаче. Вона, посмотри на ссылку поиск crutop на MSN Найден урл crutop.nu/vbulletin. В ранжировании же учитываются и внешние факторы. В данном случае их хватает что бы поставить этот урл на первое место даже безотносительно к содержимому самого урла.
|
|
|
|
+ + +
С нами с 02.08.04
Сообщения: 39
Рейтинг: 49
|
Добавлено: 25/11/05 в 22:17 |
wdfrretevw писал: | и просба пример запрета индексации папки как писать?
рейтинг будет |
файл robots.txt
пишем:
User-agent: *
Disallow: /sex/
Disallow: /phentermine/
|
|
|
|
С нами с 21.04.01
Сообщения: 666
Рейтинг: 436
|
Добавлено: 25/11/05 в 22:55 |
Mauser я не пойму,что ты пытаешся доказать?
что все поисковики долбаебы и не показывают,то что все пытаются
скрыть от индексации,а гугла самый умный и все показывает?
|
|
|
|
С нами с 10.01.03
Сообщения: 2655
Рейтинг: 552
|
Добавлено: 25/11/05 в 23:53 |
|
|
|
|
С нами с 21.04.01
Сообщения: 666
Рейтинг: 436
|
Добавлено: 26/11/05 в 00:23 |
по твоему нет разницы показывать наличие этого домена и показывать
кучу закрытых страниц?
|
|
|
|
С нами с 21.04.01
Сообщения: 666
Рейтинг: 436
|
Добавлено: 26/11/05 в 00:44 |
а если ты не понял что я имел под наличием домена,
то поставь корневую папку домена доступ только руту и оставь ее пустой и посмотриш проиндексят поисковики тебя или нет.
чтобы не ждать долго,я тебе сам отвечу - проиндексят даже не имея
рута и получив в лицо 403 ошибку.
|
|
|
|
С нами с 10.01.03
Сообщения: 2655
Рейтинг: 552
|
Добавлено: 26/11/05 в 00:52 |
Eklmn, ты неправильно понимаешь что есть "проиндексят". Обрати внимание. На Яху и МСН разные документы. На яху crutop.nu, а на мсн crutop.nu/vbulletin Как видишь твоя теория о наличии именно домена на МСНе не оправдывается.
Это уже вопрос политики поисковика что держать в базе и как показывать и по каким запросам выдавать. Закрытость роботом на это никак не влияет. На бис: роботс запрещает ВЗЯТЬ файл. Визит паука начинается с запроса роботса и если там какой-то урл закрыт, то этот урл не запрашивается ботом. Жирная точка. содержимое индекса поисковика - личное дело самого поисковика. И Гугль Бот уважает роботс.тхт. Он таки не запрашивает то, что там закрыто. Но из этого никак не следует что урлы не могут сидеть в индексе.
|
|
|
|
С нами с 21.04.01
Сообщения: 666
Рейтинг: 436
|
Добавлено: 26/11/05 в 01:04 |
msn считает папку за домен из-за редиректа, который стоял на морде.
"проиндексят" - попадут в выдачу.
моя теория верна до тех пор ,пока ты не покажеш мне
в выдаче мсн и яхи любой закрытый от индексации файл либо документ (index.html,index.php или любой другой)
|
|
|
|
С нами с 10.01.03
Сообщения: 2655
Рейтинг: 552
|
Добавлено: 26/11/05 в 01:20 |
Ну показал же уже! На МСНе crutop.nu/vbulletin и с crutop.nu ридеректа НЕТУ. Набери в браузере crutop.nu. Ты получишь Код: | <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<html>
<head>
<title>Crutop.Nu</title>
</head>
<body bgcolor="Black" text="White" link="White" vlink="White" alink="White">
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<center>
<h3><a href="/vbulletin/">Crutop.Nu</a></h3>
</center>
</body>
</html>
|
Никакого редиректа там нет.
А в индексе сидит закрытый роботсом crutop.nu/vbulletin имеющий совсем другой код.
Это уже вопрос политики поисковика что показывать в такой ситуации в выдаче и что хранить в базе. Яху предпочла одну страницу, корень домена. Мсн предпочел почему-то форум. А гугль держит все и часть в сапплементал.
Роботс.тхт не регулирует содержимое индекса поисковика. Я ж тебе дал цитату. Там черным по белому написано что и как запрещается.
Ты почему-то решил что указание в роботсе чего-то запрещает "проиндексить" - попасть в выдачу". А откуда ты такое взял? Где сказано что роботс регулирует выдачу поисковика и содержимое его базы?
|
|
|
|
С нами с 21.04.01
Сообщения: 666
Рейтинг: 436
|
Добавлено: 26/11/05 в 02:49 |
ну пиздец ты не угомонный.....
папка это не ДОКУМЕНТ! документ это файл, который тебе или боту выдает АПАЧ, ты имееш полное право на папку без запроса
документа НЕ выдавать этот документ если на него нет прямого запроса!
яха и мсн НЕ показывает |папка/index.html если они запрещены.
редирект с морды на папку всеже помоему был до вчерашнего дня.
|
|
|
|
С нами с 07.09.03
Сообщения: 4115
Рейтинг: 2060
|
Добавлено: 26/11/05 в 03:25 |
никогда там не было редиректа
и если запрещен / корень, то мсн не имла право выкладывать ссылку на форум, по твоей теории.
хотя гугл, конечно, как всегда, самый умный.
|
|
|
|
С нами с 21.04.01
Сообщения: 666
Рейтинг: 436
|
Добавлено: 26/11/05 в 04:07 |
Core писал: | никогда там не было редиректа
и если запрещен / корень, то мсн не имла право выкладывать ссылку на форум, по твоей теории.
хотя гугл, конечно, как всегда, самый умный. |
я непомню когда в последний раз ,не считая вчерашнего,я был на морде крутопа, у меня в закладках до сих пор этот урл
http://www.crutop.nu/cgi-bin/ubb/Ultimate.cgi
который меня редиректит на папку форума.
согласен ,что мсн не имел права давать папку,но он должен
показать присутствие домена.
и не понятна тогда политика мсн почему он вместо показа домена,
показывает домен с папкой,а сам домен не показывает.
у меня только одно обяснение: мсн по каким-то причинам считает
домен/папка/ за домен.
в таком случае получается,что мсн пукнул,а гугла обосрался
|
|
|
|
В чем сила, БРАТ?
С нами с 22.03.05
Сообщения: 749
Рейтинг: 246
|
Добавлено: 26/11/05 в 04:59 |
то есть если я правильно понял, пр все же передается по этим сылкам, но так как отуда страница не скачивается ПР уходит в пустоту.
Меня этот вопрос больше интересовал с позиции потери ПР
?
|
|
|
|
В чем сила, БРАТ?
С нами с 22.03.05
Сообщения: 749
Рейтинг: 246
|
Добавлено: 26/11/05 в 05:01 |
а если в сылку поставить rel=nofollow то это тоже самое что запрет через робот.тхт? то есть сылку видит, ПР передает, а страницу не индексирует
|
|
|
|
С нами с 10.01.03
Сообщения: 2655
Рейтинг: 552
|
Добавлено: 26/11/05 в 05:28 |
Eklnm, http://www.crutop.nu/cgi-bin/ubb/Ultimate.cgi - этот редиректил с момента смена скрипта форума. Но crutop.nu никогда не редиректил. Папка ровно такой же документ как и файл. Ибо это не документ вовсе, это запрос. Отправляется запрос, по нему приходит 200 и содержимое файла. Папка это, файл ли это или вообще хитрый обман - не важно.
Я тебе о том и толкую что если ты наконец перестанешь самозабвенно повторять одно и тоже, а наконец откроешь спецификацию и прочтешь для чего именно существует robots.txt то наконец поймешь что он не имеет никакого отношения к индексу поисковика. Я тебе в черти какой раз повторяю: robots.txt регулирует какие файлы можно запрашивать ботам, а какие нельзя. Все. Никакого упоминания об соджержимом индекса поисковиков тут нет. Индекс поисковика формируется на основании чего-то, но нигде нет упоминания что в индексе не должно быть урлов закрытых роботсом.
"нельзя посещать боту" НЕ РАВНО "нельзя сунуть в индекс".
Сделай такой опыт: поставь домен, закрой все роботсом, но не клади ни одного файла кроме собственно роботса. По всем прочим запросам отдавай 404. И наставь внешних ссылок на /test/ или test.html Ты увидишь что они один культурный бот не возьмет эти эти файлы, но в индексах они появятся.
вот и вот. index1 Бот не можеть взять этот файл и сделать кеш. Он и идет без тайтла и сниппета. Но урл он где-то зацепил.
wdfrretevw, именно так. Такая страница считается не имеющей внешних ссылок, то есть ссылающейся на гугль.
|
|
|
|
С нами с 21.04.01
Сообщения: 666
Рейтинг: 436
|
Добавлено: 26/11/05 в 05:54 |
насчет ПР я если честно несталкивался с такой ситуацией на своих сайтах, если верить Mauser-у, что гугл не ходит по запрещенным страницам, а сам я этого не проверял,т.к. небыло такой необходимости, а только знает как я понял старые страницы которые он проиндексил ДО запрета в robots.txt ,то гугл понятия не имеет существуют они на самом деле или нет и я склонен полагать, что при запрете в robots гугл учитывает ссылки с других
ресурсов и передает ПР, но не передает ПР внутри самого сайта.
что касается rel=nofollow , то я с опаской отношусь к этому и не использую его, если исходить из причин ввода этого тега, то можно предположить, что если % линков с этим тегом превысит % нормальных линков , то могут наверно последовать какие либо санкции со стороны гугла.
|
|
|
|