Форум о социальных сетях Поиск по форуму Инвестиции SMM обучение SMM курсы
Форум о социальных сетях Поиск по форуму Инвестиции SMM обучение SMM курсы
  • Страница 1 из 1
  • 1
Новые правила обработки директив Allow и Disallow | Yandex
#1
Четверг, 29.03.2012, 21:45
zona_apple
Пользователь
Сообщения: 22
Репутация: 29
Новые правила обработки директив Allow и Disallow в файлах robots.txt
В общем прислали письмо в webmaster.yandex`е.
Уведомляем вас об изменениях в обработке директивы 'Allow' файла robots.txt, с помощью которого вы можете разрешить или запретить индексирование сайта поисковым роботом Яндекса.

По новым правилам, если страница сайта попадает под действие нескольких директив 'Allow' и/или 'Disallow', то будет применяться директива с наибольшей длиной префикса URL. При определении длины префикса спецсимвол '*' не учитывается.

Если на вашем сайте в robots.txt совместно используются директивы 'Allow' и 'Disallow', пожалуйста, проверьте их на соответствие новым стандартам. В этом вам поможет наша форма проверки robots.txt.

Кто может сказать стандартный robots.txt для ucoz`а еще подойдет? Или надо, что- то изменить?
Вот:
User-agent: *
Disallow: /a/
Disallow: /stat/
Disallow: /index/1
Disallow: /index/2
Disallow: /index/3
Disallow: /index/5
Disallow: /index/7
Disallow: /index/9
Disallow: /panel/
Disallow: /admin/
Disallow: /secure/
Disallow: /informer/
Disallow: /mchat
Disallow: /search
Sitemap: сайт.ru/sitemap.xml
Sitemap: сайт.ru/sitemap-forum.xml

User-agent: Yandex
Host: сайт.ru

Заранее благодарю за Ваши ответы!
#2
Пятница, 30.03.2012, 16:13
GlazAlmaz
Проверенный
Сообщения: 2086
Репутация: 3236
Quote (zona_apple)
Если на вашем сайте в robots.txt совместно используются директивы 'Allow' и 'Disallow', пожалуйста, проверьте их на соответствие новым стандартам

у тебя же не используются, чего проверять-то?
->> Обучение SEO-оптимизации и продвижение сайтов (консультации)
->> вывел в топы более 200 сайтов и более 100000 запросов
  • Страница 1 из 1
  • 1
Поиск:
Форум
Социальные сети
Хостинг от uCoz