Uso WordPress e /sample-post/
URLs para minhas postagens e /yyyy/mm/
para os arquivos.
O Google indexou o site completamente.
Como os arquivos atualmente exibem postagens completas, achei que não deveria permitir que o Google indexasse as páginas de arquivamento, pois elas contêm as postagens completas e esse conteúdo será duplicado. Assim, o meu robots.txt contém:
Disallow: /2009/
Disallow: /2010/
Disallow: /2011/
Disallow: /2012/
Disallow: /2013/
Disallow: /2014/
Disallow: /2015/
Você acha que isso é uma boa prática ou prejudicaria meus rankings e / ou acessibilidade?
seo
wordpress
robots.txt
duplicate-content
google-index
cherouvim
fonte
fonte
Respostas:
Na verdade, você precisa evitar conteúdo duplicado no seu site Wordpress. O Wordpress geralmente gera conteúdo duplicado entre categorias, arquivos e tags.
Para corrigir esse problema, você pode bloquear URLs de arquivos no robots.txt, mas a melhor opção é colocar
<meta name="robots" content="noindex, follow">
nas páginas de arquivos para evitar que esses URLs sejam indexados pelo Google.Para fazer isso, você pode baixar o plugin Wordpress SEO do Yoast . Quando o plug-in está instalado, você tem a opção de colocar essa meta onde quiser (nas páginas de arquivos, nas páginas de tags, nas páginas de categorias ...). Você pode ir para o menu do plugin: SEO => Títulos e metas .
Na minha opinião, as melhores práticas para SEO são colocar essa meta em arquivos e páginas de tags e deixar o Google rastrear páginas de categorias. Eu sempre evitei conteúdo duplicado no site Wordpress como este.
fonte