Atualmente, tenho dois sites em que estou trabalhando: um carrinho de compras e outro comprador. Ambos estão com o mesmo nome de domínio. Por exemplo,
http://example.com/first_url
http://example.com/second_url
Ambos os URLs têm toneladas de páginas abaixo deles
http://example.com/first_url/product1
http://example.com/first_url/product2
http://example.com/first_url/product3
http://example.com/second_url/product1
http://example.com/second_url/product2
http://example.com/second_url/product3
Como desaprovo o URL principal /first_url
e /second_url
também todos os subpáginas e subdiretórios? Eu estava pensando algo assim, mas não sei se isso funciona ou não e se era a sintaxe correta
Disallow: /first_url/*/
Disallow: /second_url/*/
seo
robots.txt
Stephen Ostermiller
fonte
fonte
Respostas:
Você não precisa da barra final para bloquear esses diretórios. Isso funcionará:
Esta página de ajuda do Google cobre isso muito bem.
fonte
Você pode usar isso como seu padrão
robots.txt
:A estrela permitirá que tudo sob essa categoria seja desaprovado. Você pode até proibir uma coisa específica nessa categoria, digitando esse URL específico.
fonte