Как работать с robots.txt? Просто о сложном

Как работать с robots.txt? Просто о сложном



Еще больше полезной информации на seopult.ru и seopult.tv
Как и зачем необходимо создавать файл robots.txt? Любой сайт включает не только контент для пользователей, но и множество системных файлов. И когда робот поисковика начинает его сканировать, для него нет разницы – системный это файл или какой-то другой. Он проиндексирует все подряд. Чтобы этого не случилось, необходимо отредактировать файл robots.txt.
В видео мы расскажем о работе с основными директивами:
— «User-agent:»;
— «Disallow:»;
— «Allow:»;
— «Host:»;
— «Sitemap:».
___________________
Другие мастер-классы в плейлисте — www.youtube.com/playlist?list=PLc3HbRI7hx8YrcNCaoJ1YiwJI57EvED00
Не хватает знаний? ПОДПИШИСЬ НА КАНАЛ или зарегистрируйся на бесплатный семинар в cybermarketing.ru
Сайт нашего канала seopult.tv
-~-~~-~~~-~~-~-
Обязательно посмотрите: «Как правильно настроить и использовать UTM метки?»
www.youtube.com/watch?v=xhyO9eCES14
-~-~~-~~~-~~-~-

0 комментариев

Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.