|
Как правильно создать robots.txt.
|
|
Вторник, 17.01.2012, 21:24
Пользователь
Вообшем такая история, зарегестрировал я свой сайт в Яндекс но для индексации сайта требуеться robots.txt. я запарилься с ним и так и эток всеровно не правильно помогите сделать пожалуйста..! з.ы Извените если не в данном топике тему создал=)Добавлено (17.01.2012, 20:24) --------------------------------------------- Люди помогите |
|
Вторник, 17.01.2012, 21:31
Проверенный
Пропишите в конце:
Code User-agent: Yandex Host: www.site-name.ru
Это при условии, что у вас основная часть правильная. |
|
|
Вторник, 17.01.2012, 21:48
Пользователь
| Хелп) Добавлено (17.01.2012, 20:33) --------------------------------------------- JackBlack я шяс скину как у меня Добавлено (17.01.2012, 20:34) --------------------------------------------- User-agent: YandexBot # Sitemap: http://recipe.my1.ru/sitemap.xml Sitemap: http://recipe.my1.ru/sitemap-forum.xml Disallow: /a/ Disallow: /? Disallow: /stat/ Disallow: /index/1 Disallow: /index/2 Disallow: /index/3 Disallow: /index/5 Disallow: /index/7 Disallow: /index/8 Disallow: /index/9 Disallow: /index/0-0-0 Disallow: /main/ Disallow: /admin/ Disallow: /secure/ Disallow: /informer/ Disallow: /mchat Host: recipe.my1.ru Добавлено (17.01.2012, 20:48) --------------------------------------------- Да помогите ёпт |
|
Вторник, 17.01.2012, 21:56
Проверенный
Откуда вы взяли такой Robots ? oO
Правильный:
Code User-agent: * Disallow: /a/ Disallow: /? Disallow: /stat/ Disallow: /index/1 Disallow: /index/2 Disallow: /index/3 Disallow: /index/5 Disallow: /index/7 Disallow: /index/8 Disallow: /index/9 Disallow: /index/0-0-0 Disallow: /main/ Disallow: /admin/ Disallow: /secure/ Disallow: /informer/ Disallow: /mchat Sitemap: http://recipe.my1.ru/sitemap.xml Sitemap: http://recipe.my1.ru/sitemap-forum.xml User-agent: Yandex Host: recipe.my1.ru |
|
|
Вторник, 17.01.2012, 22:00
Проверенный
| BuFi, а уделить 5 минут на прочтение данной статьи и самому написать правильный роботс для сайта, слабо? |
Быть дерьмом может каждый, а реально заставить себя делать что-то могут не все. |
|
Вторник, 17.01.2012, 22:08
Пользователь
JackBlack спасибо большое за помошь=) Adriano я на это один день потратил всеровно неполучилось( |
|
Проверенный
| BuFi, JackBlack хоть и создал вам карту, точнее сказать даже исправил вашу, но данная карта не верная. И после индексации многие страницы вашего сайта вылетят из индекса. А то, что действительно нужно закрыть, например, те же дубли страниц. Будут продолжать индексироваться. Поймите, что карта сайта нужна не для того, чтобы она просто была. А для того чтобы закрывать шлак сайта от индексации. |
Быть дерьмом может каждый, а реально заставить себя делать что-то могут не все. |
|
Пользователь
| Adriano и что вы предлогаете делать? Добавлено (18.01.2012, 10:33) --------------------------------------------- Где, что и как изменить? |
|
Проверенный
Quote JackBlack хоть и создал вам карту, точнее сказать даже исправил вашу, но данная карта не верная.
Я просто выложил более-менее универсальный вариант карты для сайтов на uCoz. Для закрытие дубликатов надо собственно их видеть, а такой возможностью я не располагаю  |
|
|
Пользователь
| Так что мне сделать чтоб закрыть данные дубликаты? |
|
Проверенный
| Закрыть их для индексации в Robots по образцу. |
|
|
Пользователь
| я этот robots.txt. толком правильно заполнить не могу... |
|