Como rel = "next" e rel = "prev" ajudam no SEO se usado para paginação?

9

Como rel = "next" e rel = "prev" ajudam no SEO, se usado para paginação? É realmente necessário?

imagine que você está na página 2:

<link rel="prev" href="http://www.example.com/article-part1.html">
<link rel="next" href="http://www.example.com/article-part3.html">
Niko Jojo
fonte
Talvez uma duplicata: webmasters.stackexchange.com/questions/63582/…
Abu Nooh

Respostas:

6

Paginação com rel = "next" e rel = "prev"

Assim como rel = ”canonical” representa uma forte dica para conteúdo duplicado, agora você pode usar os elementos de link HTML rel = ”next” e rel = ”prev” para indicar o relacionamento entre os URLs dos componentes em uma série paginada. Em toda a Web, uma série de conteúdos paginados pode assumir várias formas - pode ser um artigo dividido em várias páginas componentes, ou uma categoria de produto com itens espalhados por várias páginas ou um tópico do fórum dividido em uma sequência de URLs. Agora, se você optar por incluir as marcações rel = ”next” e rel = ”prev” nas páginas dos componentes de uma série, estará dando uma dica forte ao Google

Fonte: blogspot do Google


É necessário? Não. Você deveria fazer isso? Sim, diminuirá a penalidade da "página duplicada", pois pode ser uma página seguinte / anterior da página atual. Indica a relação entre as páginas (Daí rel ).

Martijn
fonte
2

Eu diria que se você dividir uma página longa em pequenos blocos (pode ser mais receita com anúncios), que na verdade deveria ter sido uma página única, o uso dos atributos prev / next dará um sinal claro aos mecanismos de pesquisa sobre a página principal, para que o Os mecanismos de pesquisa podem mostrar a página principal nos SERPs e atribuir menos importância aos blocos.

Sobre o conteúdo duplicado, devemos sempre nos esforçar para reduzir o conteúdo duplicado e o prev / next não está relacionado ao conteúdo duplicado. Devemos adicionar rel = canonical ou bloquear páginas duplicadas por meio de Robots.txt ou exclusão de meta noindex.

AgA
fonte
0

AFAIK ajudará você a evitar apenas problemas de conteúdo duplicado, porque as páginas paginadas têm o mesmo título e descrições. Para evitar esse comportamento, o Google introduz essas tags. Em vez de aplicar manualmente essas tags, normalmente bloqueio as páginas paginadas no arquivo ROBOT.txt para evitar duplicações e esse é o método mais fácil quando comparado ao método rel, porque você precisa mencionar manualmente em todos os lugares e essas tags não são necessárias se você bloquear as páginas paginadas em ROBOT.txt.

Bala
fonte
11
Não é a melhor ideia bloquear páginas paginadas no seu robots.txt. Você receberá mais páginas no índice suplementar, enquanto o Google mostrará suas páginas no SERP com texto como "vazio por causa do robots.txt deste site" em vez de descrição.
Marian Popovych