Minha base de código é compartilhado entre vários ambientes (ao vivo, estadiamento, dev) e sub-domínios ( staging.example
, dev.example
, etc.) e apenas dois devem ser autorizados a ser rastreado (ie. www.example
E example
). Normalmente eu modificaria /robots.txt
e adicionaria Disallow: /
, mas devido à base de código compartilhada, não posso modificar /robots.txt
sem afetar todos os (sub) domínios.
Alguma idéia de como fazer isso?
sub.example.com/robots.txt
, portanto, você precisará fazer algo para fornecer uma resposta diferente, dependendo do subdomínio. Você não precisa usar o mod_rewrite, mas é uma técnica que já vi usada várias vezes. Serobots.txt
for gerado dinamicamente, você poderá alterar a resposta no código do servidor (por exemplo, PHP).robots.txt
pode ser impedir a indexação, em vez de rastrear, enviando umX-Robots-Tag: noindex
cabeçalho de resposta HTTP quando esses subdomínios forem acessados (o que também pode ser feito em .htaccess). Embora eu ache que prevenir o rastreamento é provavelmente preferível. (?)robots.txt
funciona apenas se estiver presente na raiz.Você precisa fazer o upload de um separado
robots.txt
para cada site de subdomínio, de onde ele pode ser acessadohttp://subdomain.example.com/robots.txt
.Adicione o código abaixo em para
robots.txt
E outra maneira é inserir uma
<META>
tag Robots em todas as páginas.fonte
/robots.txt
e adicionariaDisallow: /
, mas devido à base de código compartilhada, não posso modificar/robots.txt
sem afetar todos os (sub) domínios".Eu removia a metatag da página html e a criava dinamicamente, dependendo do seu subdomínio. por exemplo, usamos o subdomínio dev. para desenvolvimento. Portanto, no evento pageload, temos o seguinte:
fonte