Как подменить robots.txt для некоторых доменов на хостинге?

admTwins

Новичок
Дано:
Xостинг сайтов, Ubuntu 12.04, Apache2.22
На хостинге расположены "живые" сайты и "тестовые".
Живые - это сайты, к которым привязано нормальное доменное имя вида domainname.ru
Тестовые - это сайты, которые отзываются по имени вида domainname.test.ru

Задача:
Необходимо при запросе на "живые" домены отдавать настоящий robots.txt, а при запросе на "тестовые" - файл /var/www/default/robots.txt, чтобы "тестовые" площадки были закрыты от индексирования.
Следует учесть, что если два доменных имени domainname.ru и domainname.test.ru имеют по факту один и тот же DocumentRoot и ссылаются по сути на один и тот же сайт, то для первого должен отдаваться настоящий robots.txt, для второго - по умолчанию

Попытка прописать в apache2.conf следующее не дала результатов:
<Files "robots.txt">
RewriteEngine on
RewriteCond %{HTTP_HOST} test\.ru$
RewriteCond %{HOST_URI} robots.txt$
RewriteRule ^(.*)$ /var/www/default/robots.txt [L]
</Files>
 

Kotofey

FloodMaster.
Не проще на тестовых площадках в robots.txt прописать этот код
Код:
User-agent: *

Disallow: /
?)
 

AnrDaemon

Продвинутый новичок
1. Не надо использовать mod_rewrite там, где без него можно обойтись.
2. В конфиг тестового хоста пишете
Alias /robots.txt /var/www/default/robots.txt

Всё!
 
Сверху