Всем привет. Сразу хочу сказать, что в этом мануале, состоящий из ** частей, будет показана только начальная оптимизация, за которую афрооптимизаторы просят ещё и деньги. Обещают высокую посещалку. Не верьте им. Оптимизация создаст фундамент, для дальнейшего продвижения сайта. Конечно по НЧ(низко-частотные запросы) можно поднять приличную посещалку одной оптимизацией, а вот ВЧ(высоко-частотные запросы) это почти нереально. Мой совет, делайте оптимизацию сами, экономьте свои деньги и нервы. Ну что же, начнём: В 1 мануале разберём 3 пункта:
1) Закрытие внешних ссылок. 2) Добавление сайта в поисковых систем.
3) Создание Robots.txt
Приступим.
1) Закрытие внешних ссылок: Это один из самых лёгких пунктов, но не всегда увы. Потому что, порой ссылки могут куда угодно быть "вшиты", это относится скачанным шаблонам. Что бы закрыть ссылку например для таких поисковиков - Google, Yahoo, используют Мета-тег nofollow Вот пример:
Code
<a href="http://www.promaxs.com" rel="nofollow">Google and Yahoo</a>
Яндекс использует другой мета-тег - noindex, но как говорят, постепенно переходят на nofollow. Ниже 2 примера, один только для закрытия Яндекса, а второй для всех:
Code
<noindex><a href="http://www.promaxs.com">Яндекс</a></noindex>
<noindex><a href="http://www.promaxs.com" rel="nofollow">Google, Яндекс and Yahoo</a></noindex>
Думаю с этим всё ясно, можно переходить к следующему пункту.
2) Добавление сайта в поисковых систем: это тоже одно из самых простых пунктов мануала. Тут нужно всего лишь знать ссылку, я выложу только на Google и Яндекс, так как самые основные они для вебмастера:
http://webmaster.yandex.ru/addurl.xml
http://www.google.ru/intl/ru/addurl.html
Вот и всё, очень просто. Переходим к последнему, к 3 пункту, он чуть сложнее предыдущих.
3) Создание Robots.txt:
В этот пункте расскажу какие лучше использовать Robots.txt для uCoz и DLE.
Первое что вам покажу, это создание Robots.txt для DLE.
Здесь многие могут быть не согласны со мной, потому что куча вариантов настраивания Robots.txt, но я предлагаю Вам свой вариант. Вот он:
Code
User-agent: *
Disallow: /*print
Disallow: /*userinfo
Disallow: /2009/
Disallow: /2011/
Disallow: /2010/
Disallow: /index.php?subaction=userinfo
Disallow: /autobackup.php
Disallow: /language/
Disallow: /templates/
Disallow: /upgrade/
Disallow: /uploads/
Disallow: /backup/
Disallow: /engine/
Disallow: /user/
Disallow: /favorites/
Disallow: /?do=*
Disallow: /statistics.html
Disallow: /index.php?do=*
Disallow: /rules.html
Host: site.ru
Sitemap: http://site.ru/sitemap.xml
Для uCoz выглядит следующем образом:
Code
User-agent: *
Disallow: /a/
Disallow: /stat/
Disallow: /index/1
Disallow: /index/2
Disallow: /index/3
Disallow: /index/5
Disallow: /index/7
Disallow:
/index/8
Disallow: /index/9
Disallow: /panel/
Disallow: /admin/
Disallow: /secure/
Disallow: /informer/
Disallow: /mchat
Disallow: /search
Host: http://вашсайт.ру
Sitemap:http://вашсайт.ру/sitemap.xml
Sitemap:http://вашсайт.ру/sitemap-forum.xml
Но нужно помнить, что на uCoz, есть карантин. Во время карантина вы не сможете изменить Robots.txt в течении 1 месяца(некоторые говорят что два).
Ну вот и всё, первая часть мануала закончена. Следующая появится примерно через неделю. Если есть вопросы или дополнения, то пишите в комментарии. Отвечу на ваши вопросы и дополню этот мануал.
Ещё раз повторяю, ничего нового я не написал, а собрал всё что можно найти спокойно в инете. Этот мануал прежде всего рассчитан для НОВИЧКОВ!
Спасибо за внимание. С Уважением Макс(PROMAXS).
Ссылка на источник Мануал по оптимизации.