O Google não consegue carregar todos os recursos da página, o que está causando erros de script e pode estar prejudicando nosso SEO

8

Acabamos de constatar que a maioria dos nossos sites tem os mesmos erros, mas não sabemos como resolvê-lo.

https://search.google.com/test/mobile-friendly

Parece que alguns scripts nos sites não são incluídos. Achamos que isso afeta nossos resultados orgânicos de SEO. Tentamos as etapas do teste de compatibilidade com dispositivos móveis do Google, mas não obtivemos resultados. Estamos pesquisando há uma semana, mas ainda não encontramos uma solução.

Alguma sugestão? Por favor nos informe!

O erro:

Página parcialmente carregada

Nem todas as páginas de recursos podem ser carregadas. Isso pode afetar a maneira como o Google vê e interpreta sua página. Corrija os problemas de disponibilidade de fontes que possam afetar a maneira como o Google interpreta sua página. ''

Thijs Uyterwaal
fonte
Isso geralmente ocorre porque esses scripts não são permitidos no robots.txt. Em um site WordPress, a proibição wp-contentpode causar esses problemas. Seu robots.txt parece bom para mim, pelo menos agora. Você mudou recentemente?
Stephen Ostermiller
11
Você chegou ao fundo disso agora? Estamos tendo problemas semelhantes em dezenas de sites. Todo teste fornece resultados diferentes, às vezes carrega tudo, às vezes falha ao carregar poucos recursos, css, js ou imagens e, em seguida, dispara um erro e envia um e-mail sobre não compatível com dispositivos móveis.
Goran Usljebrka 11/01/19

Respostas:

1

O Googlebot poderá ler muito Javascript, mas não todo. Se o seu arquivo robots.txt estiver configurado para permitir o rastreamento de seus arquivos .js, é provável que seu javascript seja muito complexo para o Google processá-lo completamente.

Como resultado, talvez seja necessário continuar testando diferentes versões do seu javascript com o teste de compatibilidade com dispositivos móveis para determinar uma versão que o Google possa processar corretamente. Quanto mais complexo for o seu javascript, maior será a probabilidade de o Google não conseguir lê-lo. Tente simplificar seu Javascript da melhor maneira possível.

Michael d
fonte
Eu não penso assim, como eu estou tendo o mesmo problema exato com uma lista de 10 js& jpgarquivos. Portanto, considerando sua explicação, e os jpgarquivos.
Pmpr
1

"Página parcialmente carregada" deve fornecer uma lista de recursos que o googlebot não conseguiu carregar. Comece verificando esses recursos para acessibilidade.

  • Em seguida, tente o seguinte: Execute o teste de compatibilidade com dispositivos móveis duas vezes. Primeiro, http: // version e https: // version. Isso é para verificar se a versão https do site está tentando carregar recursos da versão http e vice-versa. Entre os dois testes, se você observar uma diferença no número de recursos não carregados, faça uma zona com esses recursos.

  • Para ter uma visão melhor do que está sendo carregado e quando, teste o site em gtmetrix.com. Isso fornecerá os recursos carregados em ordem cronológica e também no formato em cascata.

  • Na frente do código, reduza o número de javascripts. Eu olhei para a fonte de um dos sites e vejo quase 20 javascript incluídos. São muitas solicitações http do mesmo domínio. Acrescente a isso os pedidos de imagens, css, fontes etc. Tente mesclar os arquivos js e css em um ou dois arquivos cada.

deltavin
fonte
Isso não resolve bem a questão. Estou enfrentando exatamente o mesmo problema com a ferramenta Teste de compatibilidade com dispositivos móveis do Google, não foi possível carregar os recursos de relatórios listando 10 jse jpgarquivos, posso fazer o download sozinho sem nenhum problema!
PMPR
1

Ao usar esse teste, observe que muitos pixels / scripts de rastreamento de anúncios (até os pixels do Google e os pixels da Doubleclick (o Google é o proprietário da Doubleclick)) podem ser bloqueados pelo próprio arquivo robots.txt que você não pode controlar. Vi isso em primeira mão em um dos meus sites - o Google impediu que o pixel do Doubleclick fosse verificado pelo Googlebot. Você deve se perguntar: "O Googlebot é para identificar o conteúdo da sua página, não para seguir rastreadores de pixel. Até os próprios pixels de rastreamento do Google estão bloqueando o seu próprio Googlebot. Então, por que devo me preocupar se os rastreadores de pixel estão sendo bloqueados?" E também vejo isso com os pixels do Facebook.

No entanto, se você controla um arquivo robots.txt e não tem nada a ver com o rastreamento de pixels, provavelmente é algo que você precisa resolver. Agora, se você possui uma parte apenas para membros do seu site ou uma parte para administradores, e está vinculada a partir da página inicial, considere os atributos de cloaking ou nofollow para que o Googlebot não tente seguir isso na sua página. No entanto, é preciso perguntar se o Google deseja que você permita que o Googlebot passe por uma seção exclusiva para membros ou administrador do seu site, o que provavelmente não é, na minha opinião.

Esta é a minha opinião, no entanto. A menos que possamos realmente responder à equipe de engenharia de SEO do Google, estamos meio que tateando no escuro e apenas temos que usar nossa melhor intuição de bom senso aqui.

Volomike
fonte