Eu estou tentando baixar um monte de (digamos, arquivos .txt) de um site, agora eles não são muito grandes (cerca de 4-10kbs cada), mas existem cerca de 70000 deles.
Tudo o que eu sou depois é o .txt, eu não quero clonar o site como HTTrack etc ...
Existe algum programa lá fora que me ajudaria com este problema? (e poupe-me uma tonelada de tempo!)
Felicidades
wget
por exemplo. Você deve incluir mais informações na sua pergunta, como é possível determinar os nomes dos arquivos txt. E qual sistema operacional você está usando.wget
man page, gnu.org/software/wget/manual/wget.html e procureacclist
.Respostas:
Se você está certo em usar um navegador, você pode usar o Firefox com a extensão DownThemAll . Você precisará navegar até a raiz do diretório e iniciar o DownThemAll - você pode filtrar apenas arquivos .txt na tela de seleção.
fonte
Use a copiadora gratuita do site HTTrack . Ele permite configurar, por exemplo, profundidade de link, tamanho máximo de arquivo, largura de banda, incluir e excluir links etc. "Ele permite que você baixe um site da Internet para um diretório local, criando recursivamente todos os diretórios, obtendo HTML, imagens e outros arquivos do servidor para o seu computador. O HTTrack organiza a estrutura de links relativa do site original. "
fonte