Perguntas com a marcação «wget»

12
Alternativas ao wget

Eu tenho um site em um servidor que é basicamente um monte de páginas HTML, imagens e sons. Perdi minha senha para esse servidor e preciso pegar tudo o que está armazenado lá. Posso ir página por página e salvar tudo, mas o site tem mais de 100 páginas. Estou usando o OSX. Eu tentei usar,...

11
Wget, aborte a tentativa novamente após falha ou tempo limite

Estou chamando um URL com wget: /usr/bin/wget --read-timeout=7200 https://site_url/s O Wget executa uma solicitação GET a cada 15 minutos nesse caso, apesar do tempo limite estar definido, por que isso acontece? A chamada deve ser feita apenas uma vez, como posso configurar o wget para NÃO...

10
Obtendo o md5 durante o wget

Estou wgetusando arquivos enormes (acima de 100 GB) e depois comparando meu md5sum com a soma postada no repositório. Acredite ou não, md5sumleva um tempo não trivial para ser executado em um arquivo desse tamanho, então eu gostaria de obter a soma em paralelo com o download. Qual é a melhor forma...

9
O wget não suporta https

Quero fazer o download https://example.comusando o wgetcomando, mas ele diz "protocolo não suportado / não reconhecido". Eu tentei usar o --secure protocol=''mas isso não funciona. Eu baixei o arquivo tar do GNU wget e tentei configurá-lo, mas falhei. Aqui está um exemplo do que vejo: bash-2.05$...

9
faça o download apenas dos primeiros bytes de uma página de origem

Estou baixando a página de origem HTML de um site usando o cURLcomando O problema é que eu não quero a maior parte do conteúdo da página. Eu só preciso das 100 primeiras linhas da página de origem. Existe uma maneira de interromper o download da página após as primeiras linhas? Atualmente, tenho o...

9
Baixar arquivo com nome real por wget

Estou tentando baixar um arquivo através de HTTP de um site usando wget. Quando eu uso: wget http://abc/geo/download/?acc=GSE48191&format=file Eu recebo apenas um arquivo chamado index.html?acc=GSE48191. Quando eu uso: wget http://abc/geo/download/?acc=GSE48191&format=file -o...

8
Diga ao wget para não configurar o URL correspondente a um padrão?

Quero testar como o meu site se comportaria ao ser spider. No entanto, quero excluir todos os URLs que contêm a palavra "página". Eu tentei: $ wget -r -R "*page*" --spider --no-check-certificate -w 1 http://mysite.com/ O -Rsinalizador deve rejeitar o padrão de URL que contém a palavra "página"....