С нами с 18.11.99
Сообщения: 14226
|
Добавлено: 07/07/11 в 02:35 |
Допустим, у вас есть очень большой сайт. Страницы на нем генерируются динамически. И вот вы наблюдаете, как Гугл индексирует все больше и больше страниц с этого сайта. 300К, 600К, 900К, 1100К, .
Очевидно, довольно много результатов попадает в дополнительный индекс. Ведь 1М страниц в основном индексе дало бы такую тучу трафика, что страшно подумать, думаю в районе 1М в сутки, или даже больше.
И вот Гугл индексирует, индексирует, а доля контента в дополнительном индексе все растет и растет. Я не знаю как это проверить (сейчас говорят нет надежного способа вычислить, сколько страниц в основном индексе), но думаю что 90% проиндексированного в соплях у Гугла. 100К страниц в основном индексе и 1М в дополнительном.
Опасаюсь, что в какой-то момент Гугл подумает: 99% сайта в соплях, значит весь сайт - говно, и зафильтрует его.
А теперь вопрос: Стоит ли ограничить количество разрешенных для индексации страниц на сайте за счет страниц с наминающей ценностью для пользователя? Ценность измерять по показателю отказов. Цель: улучшить качество индекса по сайту, снизить вероятность пенальти.
|
|
|
|
С нами с 25.09.03
Сообщения: 3833
Рейтинг: 1767
|
Добавлено: 07/07/11 в 03:37 |
kit, нету никакого дополнительного индекса, это миф. Все страницы участвуют в поиске. Проверено мной не раз. Просто гугл не всё показывает по команде site:
|
|
|
|
С нами с 22.08.08
Сообщения: 1452
Рейтинг: 440
|
Добавлено: 07/07/11 в 11:14 |
я где-то читал, по моему даже на сайте гугл, в дискуссии вебмастеров, отвечала представитель из гугл, и сказала что с 2007 года, они отказались от такой фичи как дополнительный индекс. Попробую сейчас поискать
|
|
|
|
С нами с 22.08.08
Сообщения: 1452
Рейтинг: 440
|
Добавлено: 07/07/11 в 11:15 |
|
|
|
|
С нами с 18.11.99
Сообщения: 14226
|
Добавлено: 07/07/11 в 13:30 |
Допустим сайт считается качественным. 1М страниц в индексе, дажеесли каждая будет на 10 странице, легко даст 1М трафика в день. Значит у Гугла есть какие-то механизмы, которые топят в индексе 90% страниц сайта, а оставшиеся 10% участвуют в индексе. Согласны, что такой механизм есть?
|
|
|
|
завлекаю текстами
С нами с 30.04.09
Сообщения: 1610
Рейтинг: 1165
|
Добавлено: 07/07/11 в 14:07 |
kit: я думаю они применяют свои алгоритмы именно для того, чтобы в поиске оставались только качественные миллионники.
Если по запросу в поиске на сайте находится больше 3х страниц гугл их прячет под кат "показать все результаты с этого сайта" таким образом и выдачу не рубит и дает возможность остальным участвовать в топе.
|
|
|
|
С нами с 18.11.99
Сообщения: 14226
|
Добавлено: 07/07/11 в 14:17 |
Все равно какая-то нестыковка: Как Гугл ограничивает большие сайты в индексе, если сайт в целом считается качественным по всем показателям? Ну допутим, как не показывать много результатов с одного сайта по конкретному запросу мы разобрались, согласен с Crappyday. Но что делать, если 1М страниц так или иначе возникает в выдаче по огромному количеству низкочастотников? Тогда даже при прятании результатов под кат, получается очень много трафика.
Значит Гугл дает каждому сайту какую-то квоту, на место в своем индексе. Не только по конкретному запросу, а в целом, по всей поляне.
|
|
|
|
С нами с 18.11.99
Сообщения: 14226
|
Добавлено: 07/07/11 в 14:36 |
Вычитывал наш июньский SEO-дайджест перед публикацией, там цитата Мэта Каттса:
Мэта Каттса писал: | У нас есть алгоритм, который ограничивает количество отображаемых результатов с одного ресурса. Именно он помогает другим сайтам также появляться в поисковой выдаче. |
Так что квотирование точно есть. И я уверен, что размер квоты устанавливается по количеству трафика на сайте. Если на сайте море трафика, типа Википедии (30М в сутки легко), то Гуглу будет не западло подкинуть 15М трафика, если верить статистике Алексы:
Кстати, это стыкуется с фразами многих владельцев крупных сайтов, что чем больше трафика на сайте, тем больше его любит Гугл. Да, он любит большие сайты, через механизм квотирования.
|
|
|
|
+ + +
С нами с 11.11.05
Сообщения: 580
Рейтинг: 416
|
Добавлено: 07/07/11 в 15:13 |
kit писал: |
А теперь вопрос: Стоит ли ограничить количество разрешенных для индексации страниц на сайте за счет страниц с наминающей ценностью для пользователя? Ценность измерять по показателю отказов. Цель: улучшить качество индекса по сайту, снизить вероятность пенальти. |
зависит не от колва этих страниц а от их качества,т.е. при динамической генерации страниц относящихся к одному домену, каждая страница должна иметь как минимум уникальный контент,дескрипшен к нему,заточена под кеи этого контента и дальше по юзабилити и оптимизации "фантазировать" улучшение генерации.
Практически: при индексации 30к-50к таких страниц дейли гуглом,после перехода на новый алгоритм,не каких пенальти из за колва страниц не было.
пс по команде site:domain.com можно по топовым сайтам посмотреть как это работает.
|
|
|
|
С нами с 09.09.09
Сообщения: 218
Рейтинг: 134
|
Добавлено: 08/07/11 в 20:59 |
Согласен с тем что квотирование есть а вот с тем что есть доп. выдача не согласен, просто гугл отбиарает наиболее качественные страницы из всей массы проиндексированного , по многим параметрам например: бэклинки - невозможно впринцыпи получить обратные ссылки на каждую страницу если их 1м , проверить что по мнению гугла т.е. какие страницы участвуют максимально в поиске можно командой site:domen.com/* , многие думают что это доп выдача или сопли но на самом деле это те страницы которые максимально участвуют в выдаче.
Как вариант у тюбов такие хорошие показатели потому что много естественных бэк линков которые в свою очередь выводят эти страницы в поисковое ранжирование !
|
|
|
|
С нами с 01.07.09
Сообщения: 145
Рейтинг: 63
|
Добавлено: 09/07/11 в 12:26 |
kit писал: | Кстати, это стыкуется с фразами многих владельцев крупных сайтов, что чем больше трафика на сайте, тем больше его любит Гугл. |
Это точно, недавно в этом убедился на нескольких сайтах.
Чем больше траффу на сайте, тем больше он в выдаче показывается.
Гугля таким образом определяет популярность, что в принципе верно.
|
|
|
|
С нами с 18.11.99
Сообщения: 14226
|
Добавлено: 09/07/11 в 12:39 |
Уточнение: чем больше букмарков на сайте, тем больше его любит Гугл.
Врядли учитывается "пролетающий" трафик. Поэтому получить позиции плохому сайту с помощью покупки трафика нельзя.
|
|
|
|
no sign
С нами с 25.07.03
Сообщения: 3623
Рейтинг: 1403
|
Добавлено: 09/07/11 в 13:03 |
kit писал: | Уточнение: чем больше букмарков на сайте, тем больше его любит Гугл.
Врядли учитывается "пролетающий" трафик. Поэтому получить позиции плохому сайту с помощью покупки трафика нельзя . |
ну по моим экспериментам - учитывается и пролетающий траф
банально заливал какое-то количество покупного трафика - через 2-3 дня - рост позиций в гугле
|
|
|
|
С нами с 18.11.99
Сообщения: 14226
|
Добавлено: 09/07/11 в 13:05 |
Покупной трафик по любому букмарков прибавляет на любом сайте. Гугл это видит и дает небольшой бонус. Как-то так получается.
|
|
|
|
С нами с 13.08.07
Сообщения: 1089
Рейтинг: 1522
|
Добавлено: 09/07/11 в 15:28 |
Как гугл отслеживает кол-во букмарков если нету ГА?
|
|
Адалт умер, а мы всего лишь черви, доедающие его труп.
Angry Bull, 2018.
|
0
|
|
|
С нами с 25.09.03
Сообщения: 3833
Рейтинг: 1767
|
Добавлено: 09/07/11 в 15:40 |
Mr.Elliot писал: | site:domen.com/* |
Этот запрос показывает какуето хуйню! Помню проверял на одном сайте - страница висит на первом месте в гугле и получает трафик, но по запросу site:domen.com/* ее НЕТ
|
|
|
|
С нами с 25.09.03
Сообщения: 3833
Рейтинг: 1767
|
Добавлено: 09/07/11 в 15:42 |
Ara Man писал: | Как гугл отслеживает кол-во букмарков если нету ГА? |
браузеры всё что надо отслеживают
|
|
|
|
Любитель хорошего ;)
С нами с 08.06.07
Сообщения: 16151
Рейтинг: 6269
|
Добавлено: 09/07/11 в 15:59 |
arachnO писал: | ну по моим экспериментам - учитывается и пролетающий траф
банально заливал какое-то количество покупного трафика - через 2-3 дня - рост позиций в гугле |
+1 работает, не однократно проверял. Причём почти сразу рост se с гугла шел.
Наличие аналитикса не влияло на рост se.
|
|
|
|
С нами с 18.11.99
Сообщения: 14226
|
Добавлено: 10/07/11 в 16:01 |
Ara Man писал: | Как гугл отслеживает кол-во букмарков если нету ГА? |
Есть огромное количество способов отследить трафик на сайте. Не конкретного юзера, а в целом, тренды:
1) Тулбар Гугла.
2) Обращение к ДНС.
3) Переходы на сайт из поисковой выдачи, особенно по имени сайта.
Думаю, что Гугл обсчитывает так или иначе примерно 20-30% трафика в сети. Этого достаточно доля оценки трафика на сайте, и как он себя ведет.
|
|
|
|
Old Oil Barrel
С нами с 09.09.04
Сообщения: 58531
Рейтинг: 14265
|
Добавлено: 12/07/11 в 18:20 |
kit писал: | А теперь вопрос: Стоит ли ограничить количество разрешенных для индексации страниц на сайте за счет страниц с наминающей ценностью для пользователя? |
а в чем проблема сделать каждую пагу уникальной и ценной для пользователя? мое имхо в конечном итоге это даст больший плюс, хоть и затратно пипец как
щас иду по этому пути
|
|
|
|
С нами с 18.11.99
Сообщения: 14226
|
Добавлено: 12/07/11 в 23:06 |
В адалте, интересность страницы часто пропорционально количеству контента на ней. Иногда ничего не возможно поделать с этим.
|
|
|
|