С нами с 12.08.04
Сообщения: 613
Рейтинг: 128
|
Добавлено: 19/03/08 в 15:07 |
возник такой вопрос - а насколько неуникальный контент мешает кусочкам уникального на том же сайте.
допустим, на сайте 500 страниц, 10 из них - уникальные, остальные - дублированый контент.
может, лучше страницы с дублировнным контентом спрятать джаваскриптом? или они не помешают уникальным страницам?
всех рейтингом осыплю
|
|
|
|
С нами с 24.10.02
Сообщения: 2038
Рейтинг: 1045
|
Добавлено: 19/03/08 в 22:08 |
А зачем закрывать неуникальный контент? Чтобы гугл считал твой рес полностью уникальным? ;)
Я думаю, что не нужно ничего закрывать.. Пусть все индексирует!
ИМХО конечно же.. Может СЕО гуру подскажут что-то другое...
|
|
|
|
С нами с 25.05.07
Сообщения: 1242
Рейтинг: 723
|
Добавлено: 20/03/08 в 03:46 |
Лучше закрыть, и не яваскриптом а robots.txt (при возможности)
|
|
|
|
С нами с 24.10.02
Сообщения: 2038
Рейтинг: 1045
|
Добавлено: 20/03/08 в 07:08 |
Для чего? Что это даст, если еще неуникальный текст имеет те же ключевики, под которые заточены уникальные тексты и весь блог вцелом?
|
|
|
|
СЕОшнег
С нами с 25.03.07
Сообщения: 2630
Рейтинг: 1208
|
Добавлено: 20/03/08 в 08:36 |
переделай немножко неуникальный текст, чтобы он более-менее уникальным был=)
|
|
|
|
С нами с 12.05.04
Сообщения: 3333
Рейтинг: 1806
|
Добавлено: 20/03/08 в 09:18 |
Не мешает он, не переживай так )
|
|
|
|
Раздаю инвайты, ищу линк-трейд
С нами с 20.08.04
Сообщения: 16672
Рейтинг: 8593
|
Добавлено: 20/03/08 в 12:32 |
Chin писал: | Лучше закрыть, и не яваскриптом а robots.txt (при возможности) |
Не ожидал. Недавно еще топик был на подобную тему, там выводы другие были вроде.
|
|
|
|
С нами с 12.08.04
Сообщения: 613
Рейтинг: 128
|
Добавлено: 20/03/08 в 14:35 |
слышал мнение, что robots.txt гуглу не указ. индексирует и то, что закрыто.
переделывать 500 страниц - не весело, сайт белый.
вопрос в том, пенализируют ли поисковики уникальные страницы, если основная масса контента на сайте - дублированная.
|
|
|
|
С нами с 08.11.05
Сообщения: 350
Рейтинг: 336
|
Добавлено: 20/03/08 в 18:00 |
Если бы такое пенальти существовало, то все блоги на фрихостах вроде thumblogger'а были бы в попе из-за кучи сплогов на этих же доменах.
|
|
|
|
Z
С нами с 15.05.05
Сообщения: 55190
Рейтинг: 7770
|
Добавлено: 20/03/08 в 18:11 |
Profity писал: | попе из-за кучи сплогов на этих же доменах. |
а причем тут это?
java script не поможет, гугл хавает ее, насчет что будет, не думаю что кто то может со 100% гарантией сказать
|
|
|
|
С нами с 18.04.05
Сообщения: 3728
Рейтинг: 4605
|
Добавлено: 20/03/08 в 19:06 |
Убирать, я думаю, не имеет смысла, пусть гугл видит всё. Ведь даже матёрые сплоги вылезают в Се.
|
|
|
|
С нами с 12.08.04
Сообщения: 613
Рейтинг: 128
|
Добавлено: 21/03/08 в 11:53 |
понятно, всем спасибо, рейтингу добавил.
насчет того, что гугл хавает javascript - так можно спрятать так, что не схавает
|
|
|
|
С нами с 25.05.07
Сообщения: 1242
Рейтинг: 723
|
Добавлено: 21/03/08 в 19:17 |
У гугля есть ограничения на индексацию. Зависят они от трастовости, как мне понимается.
Если у тебя слабенький домен с 500 уникальными и 10 000 неуникальных текстов, есть вероятность что эти 500 уникальных вообще не попадут в индекс, а те что вошли в индекс переместятся в сопли, отожрав лимиты индексации.
Я прекрасно знаю что не сильно трастовые домены могут быть в индексе с присутствием 1 000 000 страниц (у меня такие есть), но это чисто сплоговые вещи и мне пох что с ними случится и сколько с них трафика будет. К бережно взращиваемым проектам должен имхо быть другой подход.
|
|
|
|
С нами с 22.03.07
Сообщения: 260
Рейтинг: 240
|
Добавлено: 21/03/08 в 21:02 |
Соглашусь наверное с Chin'om...
нечто подобное наблюдал на одном блоге, когда ещё сопли по человечески показывались, но после жестокого рерайта(благо постов было немного, штук 40) гугл вернул страницы в main индекс
|
|
|
|