O Google considera a taxa de rejeição ou algo semelhante nos sites de classificação?
Histórico: aqui no Stack Exchange, observamos que as alterações mais recentes do algoritmo do Google resultaram em uma queda de cerca de 20% no tráfego para a falha do servidor (e uma queda muito menor no tráfego para o superusuário ). O tráfego de estouro de pilha não foi afetado.
Havia um artigo no WebProNews que sugeria que a taxa de rejeição poderia ser um sinal de classificação na última atualização do Google no Panda.
De acordo com o Google Analytics, estas são as nossas taxas de rejeição no último mês:
Site Bounce Rate Avg Time on Site
------------- ----------- ----------------
SuperUser 84.67% 01:16
ServerFault 83.76% 00:53
Stack Overflow 63.63% 04:12
Agora, tecnicamente, o Google não tem como saber a taxa de rejeição. Se você for ao Google, procurar algo e clicar no primeiro resultado, o Google não saberá a diferença entre:
- um usuário que desliga o computador
- um usuário que acessa um site completamente diferente
- um usuário que passa horas clicando no site em que acessou
O que o Google faz saber é quanto tempo leva o usuário a voltar ao Google e fazer outra pesquisa. De acordo com o livro In The Plex (página 47), o Google distingue entre o que eles chamam de "cliques curtos" e "cliques longos":
- Um clique curto é uma pesquisa em que o usuário volta rapidamente ao Google e faz outra pesquisa. O Google interpreta isso como um sinal de que os primeiros resultados da pesquisa foram insatisfatórios.
- Um clique longo é uma pesquisa em que o usuário não pesquisa novamente por um longo tempo.
O livro diz que o Google usa essas informações internamente, para julgar a qualidade de seus próprios algoritmos. Ele também disse que dados de cliques curtos nos quais alguém redigita uma pequena variação da pesquisa são usados para alimentar o "Você quis dizer ...?" algoritmo de verificação ortográfica.
Portanto, minha hipótese é que o Google decidiu recentemente usar taxas de cliques longos como sinal de um site de alta qualidade. Alguém tem alguma evidência disso? Você já viu sites de alta taxa de rejeição que perderam tráfego (ou vice-versa)?
fonte
Respostas:
É muito provável que o Google possa estimar sua taxa de rejeição, se você levar em conta um novo recurso que detecta quando o usuário está clicando no botão voltar:
Pesquisar no Google:
Clique no resultado de uma pesquisa.
Clique de volta.
O Google está mostrando uma nova opção, "Bloquear todos os resultados [do site]":
Obviamente, isso é uma suposição, mas cliques rápidos podem ser bons indicadores de resultados irrelevantes e têm forte correlação com a taxa de rejeição. Observe que isso falha quando o usuário está abrindo os resultados da pesquisa em uma nova guia; portanto, pode ser direcionado aos usuários menos experientes.
Observe a diferença entre "fazer outra pesquisa", que o Google deve levar pessoalmente, pois exibia resultados irrelevantes, e "retornar à mesma pesquisa", o que significa que esse site específico não era adequado para essa pesquisa.
fonte
:)
. Mais uma vez, eu não poderia encontrar qualquer referência a isso ...Tenho um problema com o conceito de cliques longos / curtos sendo usados em seu algoritmo de classificação. Existem muitos cenários em que cliques curtos e longos ocorrem o oposto do que seria a lógica padrão.
Por exemplo, cliques curtos podem ocorrer porque:
Um usuário está abrindo muitas guias ao mesmo tempo, digamos todos os dez links na primeira página de resultados de pesquisa, para pesquisas de algum tipo. (Se essa pesquisa é SEO ou acadêmica é irrelevante). Todos aparecerão como cliques breves.
Alguém está procurando um site específico e está pulando nos resultados até encontrar o que deseja. O tomo deles em cada site é curto, não porque o site tenha sido mal executado, apenas não é o site específico que o usuário está procurando.
Isso é muito fácil de manipular. Se isso realmente era um fator potencial de classificação, não é difícil imaginar chapéus pretos clicando rapidamente em seus concorrentes para servir a seus próprios fins. (Naturalmente, isso seria automatizado para produzir a quantidade necessária para estimular o Google a entrar em ação).
Cliques longos podem ocorrer porque:
Um usuário não tem idéia do que está procurando e passa uma eternidade em cada site procurando, mas nunca o encontra (por exemplo, esse site é irrelevante).
Um usuário se afasta do computador ou é rastreado por qualquer motivo
Abuso (veja acima)
Um usuário não tem acesso à Internet e leva um longo tempo em cada site porque tem dificuldade em usar a Internet.
A melhor maneira de imaginar essas informações sendo usadas é na pesquisa personalizada. Se alguém clica brevemente em um site em particular, provavelmente garante a redução nos resultados de pesquisa pessoal.
Quanto à evidência anedótica, tenho algumas dezenas de sites clientes que monitorei e a taxa de rejeição não parece se correlacionar com as classificações.
Quanto ao Google usar o Google Analytics em seu algoritmo de busca, a resposta de Matt Cuitts é não .
fonte
Por Matt Cutts
Concedido isso em dezembro de 2008, mas Matt Cutts dizendo que a taxa de rejeição não é usada nem um pouco é bastante definitiva no meu livro, mesmo três anos depois.
fonte
Acho que o problema do uso da taxa de rejeição no ranking é que ela não leva em conta o fato de que rejeições nem sempre são uma coisa ruim. Essa métrica precisa ser tomada em contexto, porque existem alguns sites nos quais você pode realmente aumentar sua taxa de rejeição!
De fato, como exemplo, seus sites podem ser esse tipo de site (pelo menos da perspectiva do Google de fornecer resultados relevantes para seus usuários). Tome SO como exemplo - se estou procurando a resposta para uma pergunta de programação, não quero gastar um tempo considerável clicando em busca de uma resposta. Quero uma resposta o mais rápido possível, para poder voltar ao meu trabalho. Eu esperaria que o Google retornasse uma lista de sites que respondem à minha pergunta, e não aqueles que irão diminuir meu tempo.
Acho que a métrica da taxa de rejeição não fornece informações suficientes por si só para ser útil em um algoritmo de classificação de mecanismos de pesquisa. Se o Google o estiver usando para mais do que análises internas (onde os humanos podem adivinhar a intenção do usuário), eles estão cometendo um erro.
Como observação, voltando ao exemplo de uma pesquisa por uma resposta a uma pergunta de programação, você já achou que a resposta à pergunta está realmente nos resultados da pesquisa e não precisa clicar em um site em tudo?
fonte
Eu gerencio um site que gera cerca de 30 mil visualizações de página por dia. Perdeu 1/3 do seu tráfego por volta de 11 de abril (lançamento internacional do panda). Todo o domínio perdeu tráfego em geral. A taxa média geral de rejeição gira em torno de 65% (o pré-panda foi de 71%). As páginas mais atingidas têm taxas de rejeição acima de 75%. É uma teoria interessante.
Para a taxa de rejeição do crédito do Google (espero que não seja apenas uma coincidência), o tempo médio no site e as páginas por visita melhoraram após a alteração.
Nota: Os outros sites que eu gerencio não foram afetados pela alteração do algoritmo. Suas taxas de rejeição médias variam de 52% a 68%. Não analisei páginas individuais nesses sites, pois elas não foram afetadas
fonte
O Google quase certamente está usando sinais de usabilidade como um fator significativo nos rankings. O Google provavelmente não usa "taxa de rejeição", pelo menos não como medido pelo Google Analytics. Em vez disso, o Google conta com:
A taxa de rejeição geralmente pode ser usada como proxy para medir sua BBR, mas existem algumas limitações:
Além disso, como outras respostas apontaram, Matt Cutts, do Google, afirmou que a taxa de rejeição não é usada para seu conhecimento como parte do algoritmo de classificação. Ele não disse nada sobre a taxa de recuperação (que é sutilmente diferente).
Estou convencido de que o Google usa esses sinais com base na minha experiência em um site no qual eu estava fazendo o SEO. Era um tipo de site de produto. Percebemos que simplesmente não conseguimos classificar alguns produtos para suas palavras-chave segmentadas, apesar de despejar grandes quantidades de pagerank interno nelas. Um padrão que surgiu foi que os produtos que não estavam classificados tinham menos conteúdo do que os que estavam classificados. Conteúdo nem sempre significava muito texto, tínhamos vários tipos de conteúdo:
Percebemos que muitos desses tipos de conteúdo seriam difíceis de serem medidos diretamente pelo Google. Realmente sabia que havia um mapa na página? Ele estava tentando detectar a presença de preços? Todas as análises de usuários estavam em suas próprias páginas. Poderia realmente medir a quantidade de texto associada a cada produto, rastreando muitas páginas e adicionando os totais? Teorizamos que seria muito mais fácil para o Google avaliar como os usuários reagem à página e ajustar as classificações em vez de tentar medir diretamente a quantidade de conteúdo.
Primeiro, fizemos algumas alterações na forma como nossa taxa de rejeição foi medida. Implementamos "eventos" para que, quando os usuários clicassem nos links externos, eles fossem medidos em análises. Também colocamos "eventos" para itens como mover o mapa e rolar a página para baixo. Concluímos que, quando um usuário interage com a página, ele não deve contar como rejeição, mesmo que esse usuário não tenha visualizado mais de uma página no site.
Em seguida, correlacionamos a taxa de rejeição com a quantidade de conteúdo que tínhamos para cada produto. Os resultados foram muito mais dramáticos do que esperávamos. Para produtos sem conteúdo, a taxa de rejeição foi de cerca de 90%. Para produtos com muitos tipos de conteúdo, a taxa de rejeição foi inferior a 15%. Produtos com algum conteúdo caíram no meio. Poderíamos usar isso para ver que tipo de conteúdo os usuários acharam mais valiosos. Também poderíamos valorizar a solicitação da décima revisão do usuário versus a escavação do primeiro link externo para um artigo.
As classificações também se correlacionaram muito de perto com essa taxa de rejeição. Precisávamos de menos links internos apontando para páginas com taxa de rejeição muito baixa para obter a classificação nº 1 do que páginas com taxa de rejeição moderadamente maior.
fonte
Embora essa questão seja interessante no sentido hipotético, falta a parte da capacidade de ação de ser prática.
Suponha, por um minuto, que a resposta seja sim - o Google usa a taxa de rejeição para classificar sites -, o que você faria sobre isso? A única maneira de aumentar essa métrica de maneira confiável seria colocar blocos artificiais entre o usuário e a resposta marcada como correta no SO, que treinaria lentamente os usuários para evitar esses domínios (diminuir a CTR do Google, que é conhecido por ser um importante métrica na classificação por relevância).
Portanto, minha sugestão seria concentrar seu tempo e esforço em métricas nas quais você possa trabalhar, em vez de adivinhar duas externalidades que não estão sob seu controle.
fonte
"Em primeiro lugar, poderíamos deixar completamente as perguntas não respondidas fora do índice do Google"
Sim e não, IMO, dependendo da rapidez com que as perguntas geralmente são respondidas. Todas as perguntas não são respondidas quando postadas, por exemplo, quase por definição (a menos que a pergunta tenha respondido a outra coisa). Talvez faça isso se não for respondido por x dias, no-index e ping no google para ver a tag e no-index.
Você tem mais perguntas sem resposta nos sites que foram desativados?
O Google certamente está experimentando e alguns sites perderam até 70% de seu tráfego desde 24/2. Nem todos eles são um site ruim, você sabe, apenas nenhuma recuperação do panda até agora, independentemente do que você fez no site.
fonte