Новая теория Песочницы Google: «Эффект усреднения от повторений Page Rank»
Ветка на WebmasterWorld сразу стала популярной. Названа она
«Эффект усреднения от повторений Page Rank – может быть здесь кроется объяснение “песочницы”?» Сдается мне, что нужно процитировать большую часть поста, чтобы объяснить новую теорию Песочницы, которую многие нашли «свежей» и «разумной».
Нужно принять во внимание, что уравнение PageRank выглядит примерно следующим образом:
PR(A) = (1-d) + d (PR(T1)/C(T1) + … + PR(Tn)/C(Tn))
При первом же взгляде на это уравнение становится понятно, что оно может быть рассчитано только после статистически достаточного количества повторений.
Если вы будете анализировать сайт с 5 страницами, которые ссылаются друг на друга (заглавная страница имеет исходный PageRank около 3,5), то после первой итерации PageRank вы увидите, что заглавная страница обладает PR3.5, а остальные страницы имеют PR 0.365 - самое большое различие, которое может быть из всего возможного количества итераций в этом примере.
Это значение PR для заглавной страницы разительно отличается от других страниц, потому что Google еще не посчитал распространение PR. Заглавная страница имеет искусственное и временно завышенное значение PR (что объясняет внезапные и быстро исчезающие скачки PR, и как следствие, изменения в результатах поисковых запросов).
Во второй итерации, заглавная страница снижается в оценке до PR 1,4 (падение более чем на 50%), а второстепенные страницы поднимаются до 0,9. Это объясняет эффект исчезновения «новых» сайтов. Драматические флуктуации повторяются до примерно 12 итерации, после чего заглавная страница находит равновесие на отметке примерно в 2,2, а остальные страницы довольствуются значением 0,7.
Мне кажется, что продолжительность «песочницы» совпадает по времени с продолжительностью итераций по подсчету Google PagaRank.
Думаю, период «песочницы» – это время, которое необходимо Google для проведения итераций в вычислениях, чтобы привести в равновесие полученные в результате вычислений данные по сайту.
Администратор Webmasterworld, tedster, добавляет, что глубокие ссылки могут «замкнуть выравнивающий эффект, производимый PR-итерациями, особенно если ссылки добавляются «достаточно неторопливо». На что другой администратор WebmasterWorld, trillianjedi, уточняет: «Нужно разобраться, возможно старую систему PR уже полностью заменили на нечто совершенно другое…». Однако он сам и поясняет далее, что эта и другие теории являются простыми рассуждениями. Что объясняет популярность подобных топиков.
Google продолжает утверждать, что PageRank используется, и является частью алгоритмов. Многие SEO считают, что сейчас он используется только для:
(1) определения того, какой сайт должен ранжироваться выше, когда сайты А и Б равны по всем остальным характеристикам (интересно, такое вообще когда-нибудь случается?)
(2)
(3) для определения частоты кролинга отдельных документов.
(4)
Сложно сказать, кто здесь прав, а кто заблуждается.
Обсуждение на
WebmasterWorld