Estou com um problema com o seguinte comando wget:
wget -nd -r -l 10 http://web.archive.org/web/20110726051510/http://feedparser.org/docs/
Ele deve baixar recursivamente todos os documentos vinculados na Web original, mas baixa apenas dois arquivos ( index.html
e robots.txt
).
Como posso obter o download recursivo desta web?
10
para um número menor, mas é difícil de adivinhar. Agora há um arquivointroduction.html
,introduction.html.1
,introduction.html.2
e eu, em vez terminado o processo.--mirror
opção para os links direcionarem para o sistema de arquivos?-nd
, então diferentesindex.html
s são colocados no mesmo diretório e-k
, sem , você não poderá reescrever os links.Transfere recursivamente o conteúdo do URL.
Algumas outras opções úteis são:
fonte
-l 0 - remove recursion depth (which is 5 by default)
+1