Как запретить индексирование в robots.txt?

Вопрос

Что нужно написать в robots.txt для запрета индексирования страниц сайта в поисковых системах? Использую директиву Disallow, но все равно некоторые страницы не получается убрать из выдачи Google.

Ответ

Важно понимать, что инструкции из файла robots.txt могут быть проигнорированы поисковыми системами.

Для запрета индексирования страниц или сайта в целом нужно использовать директиву Disallow.

Полный запрет индексирования сайта:

User-agent: * 
Disallow: /

Запрет индексирования конкретных страниц:

User-agent: * 
Disallow: /sample-page

Запрет индексирования разделов:

User-agent: * 
Disallow: /sample-category/

Запрет индексирования параметров URL, скриптов, стилей, изображений, документов:

User-agent: * 
Disallow: /*?
Disallow: /*.js
Disallow: /*.css
Disallow: /*.jpg
Disallow: /*.pdf

В случае игнорирования данных инструкций поисковой системой, читайте руководство по удалению страниц сайта из Google.