Какие страницы нужно закрывать в файле robots.txt

Вопросы и ответы по правильной оптимизации сайта и внутренних факторах влияющих на ранжирование в поисковых системах

Какие страницы нужно закрывать в файле robots.txt

Сообщение BoiKot » 06 фев 2013, 08:20

Итак, файл мы создали. Возникает вопрос, а что же нужно закрывать на сайте от индексирования. Конечно, в каждом конкретном случае это вам решать, но есть некоторые общие правила, которыми я и хочу с вами поделиться.
Закрываем:
- результаты поиска по сайту
- страницы со входом в CMS
- дубликаты страниц (таких как правило бывает много, особенно на Joomla)
- страницы с логами
- всевозможные сервисные страницы с базами данных
- страницы находящиеся в разработке
- страницы не имеющие текстового контента
- страницы регистрации
- страницы авторизации
- любые другие страницы не несущие для пользователя полезной информации

Это только самая общая информация по закрытию страниц.
Аватар пользователя
BoiKot
Продвинутый Юзер
 
Сообщений: 307
Зарегистрирован: 13 мар 2012, 08:16

Вернуться в Внутренняя оптимизация сайта

Кто сейчас на форуме

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 2

cron