Согласен с авторами статьи.
Единственное что упущено (или это я упустил?) - это обновляемость контента на странице/ на сайте. На мой взгляд, этот фактор способствует не только повышению частоты посещения ресурса поисковыми ботами, но и на ранжирование.
Также на личной практике было обнаружено еще несколько факторов.
(NB: данные получены из эксперимента "самовоспроизводящихся блогов"
)
Оптимальное обновление контента для главной страницы (home page, index, etc - т.е. страницы на которую сходятся все внутренние ссылки) составляет не более 20% в день (при варианте ежедневных повторных заходах спайдера).
Т.е. если в блоге на главной странице отображается 10 последних постов, то оптимально публиковать 1-2 поста в сутки. При более высоком % обновления бот, вероятно, "удивляется" полной (или глобальной) смене контента. Что в принципе, логично. Согласитесь, что если бы в энциклопедии сведения менялись полностью раз в неделю - это бы вызвало у Вас сомнения в достоверности этой энциклопедии.
Для вторичных же страниц (отдельные посты) обновляемость контента не столь критична.
Еще более недостоверные факторы. Не подтвержденные цифрами и/или существенными экспериментами. Но, тем не менее, принятые мною к сведению
:
- внешний css или js файл. вероятно незначительно снижает "рейтинг доверия" (дают возможность скрытия части контента)
- разово большое количество страниц на новом домене. Логично? Я бы тоже удивился увидев на сайте "Вася Пупкин рекомендует фентермин", зарегистрированном вчера, сразу же пять тыщ страниц. "Любовь" гугла к индексации и выдаче блогов, дает возможность предположить, что он предпочитает 2-5 страниц добавляемых ежедневно.
Еще раз повторяю - не стоит относиться к моему посту слишком серьезно. Я не претендую на достоверность и высказываю лишь личные предположения, построенные на статистически недостаточных выкладках.