Estou construindo um site em Wordpress para pais de 11 anos que queriam algo para recordar as realizações atléticas, acadêmicas e pessoais de suas filhas. O site inclui fotos e vídeos dela e de seus amigos, informações biográficas e postagens no blog. O domínio está registrado em nome particular da minha empresa, não os adiciono ao console do Google e estou mantendo outros SEO minimizados. Não há sobrenomes ou endereços físicos. Quero ter o máximo de segurança na web em mente para evitar que os raspadores agarrem suas fotos, etc, olhares indiscretos etc. Provavelmente estou sendo paranóico e, como todos os meus sites, acha que poderia obter mais tráfego do que realmente, mas acho que é vale a pena a investigação e vale a pena pontilhar meus i's. O site da criança tem excelente gosto e os pais são muito práticos,
Existem métodos confiáveis que eu possa adotar para aumentar a segurança na Web para essa criança de 11 anos e seu site?
fonte
robots.txt
arquivo com o conteúdo correto pode manter todos os bots legítimos fora. A parte mais difícil é o resto. Muitos deles podem ser mantidos afastados se o endereço do site for difícil de encontrar.Respostas:
Talvez eu esteja sendo paranóico, mas isso parece ser um blog / site totalmente privado. ie protegido por senha. Quem exatamente é o público-alvo?
Além do aspecto de segurança (impedindo que os inescrupulosos encontrem e usem o conteúdo), esse tipo de conteúdo parece adequado para o bullying de outros "amigos" da escola. Conteúdo que pode ser bom no início - para uma criança de 11 anos - pode se tornar embaraçoso em alguns anos.
Isso parece estar atrasado? A maneira como você oculta o conteúdo do Google (ou seja, um "bom" bot) é usar a
robots
metatag (ouX-Robots-Tag
cabeçalho) e talvezrobots.txt
. A omissão do Google Search Console não ajudará a esse respeito.Pelo menos, se você o adicionar ao Google Search Console, poderá monitorar itens como backlinks, verificar robots.txt etc. Se você for realmente público.
fonte
A única resposta apropriada é proteger com senha a coisa toda. O HTTP BASIC_AUTH é provavelmente o mais simples de configurar, pois não interage com o WordPress de nenhuma maneira. Isso, por si só, será suficiente para impedir todos os raspadores, mas se você quiser segurança adequada, também deverá usar o HTTPS.
(Nota: Em muitos sistemas, uma página HTTP será redirecionada para HTTPS. No entanto, com HTTP BASIC_AUTH, esse redirecionamento poderá ocorrer após o prompt da sua senha. A página HTTPS solicitará a senha novamente. Isso significa que sua senha foi inserida duas vezes, uma em texto não criptografado e uma vez em um canal seguro.É, em princípio, possível ter senhas diferentes para as versões HTTP e HTTPS ou não ter senha para a versão HTTP: tudo o que faz é redirecionar para a versão HTTPS, que então solicita sua senha. A facilidade de configuração depende de quais ferramentas você está usando para gerenciar as preferências de hospedagem do seu site. Como alternativa, basta garantir que você sempre navegue diretamentepara a página HTTPS, ignorando a versão não segura. Se você usar um sistema de senhas que não seja HTTP BASIC_AUTH, provavelmente nada disso será aplicado.)
fonte
Options -Indexes
).Primeiro, vou pedir desculpas a todos os webmasters profissionais por aí, mas para este OP, tenho uma sugestão de ouro:
Violar as diretrizes do mecanismo de pesquisa
Quero dizer, fazê-lo até o ponto em que o conteúdo importante está em javascript complexo e o conteúdo que os robôs podem rastrear não está em HTML adequado. Isso inclui uma etiqueta de descrição incorreta, uma etiqueta de título incorreta, etc. Caramba, talvez transforme o conteúdo inteiro em apenas um vídeo feito em flash ou mostre o conteúdo inteiro como apenas uma imagem. Isso realmente faria o rastreador do mecanismo de busca se encolher.
Vou mostrar por exemplo no código:
Aqui está uma maneira de obter algo indexado:
Ok, admito, o texto não é perfeito, mas você entende o que quero dizer.
Agora, se você deseja ocultá-lo dos rastreadores e fazê-lo da maneira mais simples, tente o seguinte:
faça uma imagem chamada mywebsite.jpg e inclua todo o texto, não no html mostrado acima. Então você precisa proteger mywebsite.jpg criando uma versão com marca d'água para os usuários não autorizados a ver a coisa real. Basta comparar as sequências ou endereços IP do agente do usuário com aqueles que você permite / não permite na imagem. Esse tipo de coisa pode ser feito no .htaccess com algumas regras de reescrita.
Por exemplo, para forçar o googlebot a ver a imagem com marca d'água em vez da coisa real, use estas regras:
Estou assumindo aqui que mywebsite.jpg é o seu site real como uma imagem e specialrobotimage.jpg é a marca d'água ou a imagem como uma mensagem informando que apenas usuários reais têm permissão para ver as informações. Além disso, as regras assumem que tudo está na mesma pasta.
fonte
Primeiro, essa é realmente uma pergunta do WP. Eu escrevi mais de 20 sites que fazem o que você precisa, então isso é bem fácil.
1 Você faz o login de todos para visualizar todas as páginas.
2 Você bloqueia a pasta de uploads via script e .htaccess. Existem scripts que verificarão o login do usuário antes de permitir a visualização da mídia.
Se você quiser fazer algo entre isso e ter seu site aberto - é muito trabalho. A maneira mais fácil de fazer isso é ter duas pastas de uploads - uma com segurança e outra para todo o resto, se você quiser ter algumas páginas abertas ao público e outras não.
Quanto ao que os outros estão dizendo sobre o conteúdo - não é possível encontrá-lo se suas páginas estiverem bloqueadas ... isso não é verdade. Eu tenho scripts de robô que pesquisam os nomes de arquivos de uma pasta.
Toda a conversa do google e dos robôs é um absurdo. Essas coisas só importam se você quiser pegá-lo pela metade. Se o fizer, siga o conselho de algumas das perguntas anteriores acima.
fonte