Entendo que rel="nofollow"
é uma maneira segura de vincular a sites externos, mas por que a Wikipedia se recusaria a vincular a outros sites sem o nofollow?
Isso é uma questão de confiança com a comunidade?
Não haveria algo de bom no SEO para a Wikipedia se eles usassem links para fontes confiáveis?
Respostas:
Uma das maneiras pelas quais os mecanismos de pesquisa determinam o que o Google chama de “PageRank” é pelo número de links recebidos, com mais peso atribuído a sites com alto número de páginas (NB: usarei esse termo como a palavra genérica para significar como um mecanismo de pesquisa prioriza como os resultados são exibidos).
Isso resultou no chamado "spam de link", onde vários sites foram criados com o objetivo de vincular a partir deles para tentar aumentar a classificação da página do site vinculado.
Como a Wikipedia é um dos sites mais bem classificados na Internet e permite a qualquer pessoa criar links a partir daí, seria o local ideal para as pessoas criarem páginas e links com o único objetivo de aumentar o ranking das páginas dos sites.
Ao aplicar as tags "nofollow", ele informa aos mecanismos de pesquisa que esses links não têm valor quando se trata de considerar seu valor para o site vinculado. Isso significa que o incentivo para encher a Wikipedia com spam de links é basicamente eliminado.
fonte
Existem algumas razões pelas quais qualquer site (incluindo a Wikipedia) que acolhe o conteúdo do usuário hoje faria links como não seguidos.
Os links podem ficar desatualizados e até retornar páginas de erro (exemplo: erro 404) ao usuário quando acessados. Uma página da web que contém pelo menos um link para uma página de erro não é uma boa página a ser indexada na Internet.
Como alguém mencionado, os sites que permitem aos usuários publicar conteúdo podem potencialmente manipular a classificação do site e / ou outros sites, publicando links para qualquer site (dependendo de quais filtros o site que o convidado está usando possui). Como um exemplo concreto: se um usuário publica centenas de links para sexo vulgar e / ou sexual quando o site não tem relação com isso, ele pode pelo menos confundir os robôs dos mecanismos de pesquisa ao acreditarem que o site tem mais a esconder e que pode " não seja confiável para fornecer resultados de qualidade que os usuários esperam ver.
Para que os webmasters se protejam de enganar os robôs dos mecanismos de pesquisa, eles farão (ou pelo menos deverão) fazer o seguinte quando tiverem o conteúdo do usuário publicado para o público ver:
Eles colocam o conteúdo em espera enquanto uma pessoa real verifica o conteúdo para ver se é aceitável para o site e o publica manualmente. Esta é a melhor opção, no entanto, estamos no mundo em que as pessoas não têm tempo para verificar milhares de parágrafos de conteúdo.
Eles deixarão o conteúdo ser publicado imediatamente, mas tornarão todos os links como não seguidos, pelo menos até que os links sejam validados manualmente.
Eles usarão filtros automáticos para verificar se o conteúdo corresponde a determinadas palavras ou frases e se corresponde (ou não), o conteúdo será rejeitado.
De qualquer forma, se o link não agregar valor a nenhum usuário ou não estiver relacionado ao site de forma alguma, ele deve ser feito como não seguir ou, melhor ainda, o link não deve estar disponível.
fonte