Новые функции в Yahoo! Site Explorer: «Изменить ваш Yahoo! Password»
Yahoo!
анонсировал запуск новых возможностей в их
Site Explorer Tool. К слову, Site Explorer был запущен 29 сентября 2005 года, и был тогда единственным в своем роде. Потом появился инструмент Sitemaps от Google, переименованный позднее в
Google Webmaster Central.
Новые возможности, добавленные Yahoo!, включают в себя:
идентификацию сайта с помощью META-тэгов
детализированная информация по ошибкам идентификации
удаление URLов
бейдж Site Explorer
Две первые возможности весьма полезны. Последняя, бейдж Site Explorer, рассматривается ниже.
А вот возможность удаления URLов меня слегка пугает. От греха подальше, я сменил мой ID- пароль в Yahoo! на более сложный.
Все, что нужно – это зайти на свой аккаунт (или чей-то чужой), и нажать на опции «Delete URL». Я не пробовал делать это. Хочется верить, что далее будет еще один слой с подтверждением действия. Возможно, требование добавить мета-тэг или еще что-то для подтверждения серьезности намерений, или дополнительное письмо-подтверждение на почтовый ящик, не принадлежащий Yahoo!
Как бы то ни было, я уже сменил свой пароль на аккаунте Yahoo!, рекомендую и вам подумать о том же.
Тим Мейер (Tim Meyer) из Yahoo! объясняет более детально возможности новой фичи Delete URL:
Если я пользуюсь функцией «Delete URL», нужно ли мне использовать также файл Robots.txt? Да. Как только вы воспользовались опцией Delete URL, чтобы удалить URL из нашего индекса, мы советуем воспользоваться файлом robots.txt, чтобы исключить возможность повторного добавления контента в наш индекс. Robots.txt предотвратит ре-индексирование вашего контента кроулером Yahoo!(Slurp). Правило-исключение, прописанное в файле Robots.txt, уменьшит количество страниц, которые Slurp будет считывать с вашего сервера. Разгрузите канал вашего вебсайта.
Примечание: Сервис Delete URL из интерфейса Site Explorer облегчает удаление вашего URL из нашего индекса, и помогает в том случае, если URL, который вы исключили из индексирования. Продолжает появляться в индексе. Однако этот сервис не предотвратит попытки нашего поискового паука снова просматривать URL. Этот сервис – не альтернатива использованию файла Robots.txt
Обсуждение на WebmasterWorld и Search Engine Roundtable Forums.