Não gosto de ver muitos erros 404 no access.log do meu servidor web. Estou recebendo esses erros porque os rastreadores tentam abrir um arquivo robots.txt , mas não conseguiram encontrar nenhum. Então, eu quero colocar um arquivo robots.txt simples que impeça que os erros 404 apareçam no meu arquivo de log.
O que é um arquivo robots.txt válido mínimo que permitirá que todo o site seja rastreado?
robots.txt
bessarabov
fonte
fonte
O melhor mínimo
robots.txt
é um arquivo completamente vazio.Quaisquer outras diretivas "nulas", como uma vazia
Disallow
ouAllow: *
não são apenas inúteis porque não são operacionais, mas adicionam complexidade desnecessária.Se você não deseja que o arquivo fique completamente vazio - ou deseja torná-lo mais legível por humanos - basta adicionar um comentário começando com o
#
caractere, como# blank file allows all
. Os rastreadores ignoram as linhas que começam com#
.fonte
Eu diria isso;
Isso permitirá que o Google rastreie tudo, mas não permitirá que o Google rastreie seu painel aadminn. Qual é a situação ideal para você.
fonte