Quero baixar um site inteiro (com sub-sites). Existe alguma ferramenta para isso?
software-recommendation
UAdapter
fonte
fonte
--convert-links
wget) não revelam sites que são revelados apenas pelo envio de um formulário, entre outras coisas.Respostas:
Experimente o exemplo 10 daqui :
–mirror
: ativar opções adequadas para espelhamento.-p
: baixe todos os arquivos necessários para exibir corretamente uma determinada página HTML.--convert-links
: após o download, converta os links no documento para visualização local.-P ./LOCAL-DIR
: salve todos os arquivos e diretórios no diretório especificado.fonte
--wait=seconds
argumento se quiser ser mais amigável ao site; esperará o número especificado de segundos entre as recuperações.--no-parent
para "nunca subir para o diretório pai" extraído daqui .O httrack é a ferramenta que você está procurando.
fonte
Com
wget
você pode baixar um site inteiro, você deve usar a-r
opção para um download recursivo . Por exemplo,fonte
O WEBHTTRACK WEBSITE COPIER é uma ferramenta útil para baixar um site inteiro no disco rígido para navegação offline. Inicie o ubuntu software center e digite "webhttrack website copier" sem as aspas na caixa de pesquisa. selecione e faça o download do centro de software para o seu sistema. inicie o webHTTrack no menu inicial ou no menu Iniciar. A partir daí, você poderá começar a aproveitar essa ótima ferramenta para downloads do seu site
fonte
Eu não sei sobre subdomínios, ou seja, subsite, mas o wget pode ser usado para pegar um site completo. Dê uma olhada na questão deste superusuário . Ele diz que você pode usar
-D domain1.com,domain2.com
para baixar domínios diferentes em um único script. Eu acho que você pode usar essa opção para baixar subdomínios, ou seja,-D site1.somesite.com,site2.somesite.com
fonte
Eu uso o Burp - a ferramenta spider é muito mais inteligente que o wget e pode ser configurada para evitar seções, se necessário. O Burp Suite em si é um poderoso conjunto de ferramentas para ajudar nos testes, mas a ferramenta spider é muito eficaz.
fonte
Você pode fazer o download do comando do site inteiro:
Exemplo:
fonte
Se a velocidade é uma preocupação (e o bem-estar do servidor não é), você pode tentar o puf , que funciona como o wget, mas pode baixar várias páginas em paralelo. No entanto, não é um produto acabado, não é mantido e é terrivelmente indocumentado. Ainda assim, para baixar um site com muitos arquivos pequenos, essa pode ser uma boa opção.
fonte