Use em wget
vez disso. Você pode instalá-lo brew install wget
se tiver instalado o Homebrew ou sudo port install wget
se tiver instalado o MacPorts.
Para baixar arquivos de uma lista de diretórios, use -r
(recursivo), -np
(não siga os links para os diretórios principais) e -k
faça com que os links em HTML ou CSS baixados aponte para arquivos locais (credit @xaccrocheur).
wget -r -np -k http://www.ime.usp.br/~coelho/mac0122-2013/ep2/esqueleto/
Outras opções úteis:
-nd
(sem diretórios): faça o download de todos os arquivos para o diretório atual
-e robots.off
: ignore arquivos robots.txt, não baixe arquivos robots.txt
-A png,jpg
: aceite apenas arquivos com as extensões png
oujpg
-m
(espelho): -r --timestamping --level inf --no-remove-listing
-nc
, --no-clobber
: Ignore o download se houver arquivos
wget -r -np -k http://your.website.com/specific/directory
. O truque é usar-k
para converter os links (imagens, etc.) para visualização local.brew
eport
não funciona para eu instalar o wget. O que devo fazer?-k
nem sempre funciona. Por exemplo, se você tem dois links apontando para o mesmo arquivo na página da Web que você está tentando capturar recursivamente,wget
apenas parece converter o link da primeira instância, mas não da segunda.curl
só pode ler arquivos de páginas da web, o conjunto de linhas que você obtém é, na verdade, o índice de diretório (que você também vê no seu navegador se acessar esse URL). Para usarcurl
e algumas ferramentas Unix mágicas para obter os arquivos, você pode usar algo comoque colocará todos os arquivos no diretório atual.
Para necessidades mais elaboradas (incluindo a obtenção de vários arquivos de um site com pastas / diretórios),
wget
(conforme proposto em outra resposta já), é a melhor opção.fonte
xmllint --html --xpath '//a/@href'
provavelmente é um analisador melhor quegrep
.Ref: http://blog.incognitech.in/download-files-from-apache-server-listing-directory/
Você pode usar o seguinte comando:
Explicação com cada opção
wget
: Comando simples para fazer solicitação de CURL e baixar arquivos remotos em nossa máquina local.--execute="robots = off"
: Isso ignorará o arquivo robots.txt durante o rastreamento pelas páginas. É útil se você não estiver obtendo todos os arquivos.--mirror
: Esta opção basicamente reflete a estrutura de diretórios para o URL especificado. É um atalho para o-N -r -l inf --no-remove-listing
que significa:-N
: não recupere arquivos a menos que seja mais recente que local-r
: especificar download recursivo-l inf
: profundidade máxima da recursão (inf ou 0 para infinito)--no-remove-listing
: não remova os arquivos '.listing'--convert-links
: criar links em HTML ou CSS baixados apontam para arquivos locais--no-parent
: não ascenda ao diretório pai--wait=5
: aguarde 5 segundos entre as recuperações. Para não debater o servidor.<website-url>
: Este é o URL do site de onde baixar os arquivos.Download feliz: smiley:
fonte
Você pode usar o httrack disponível para Windows / MacOS e instalável via Homebrew.
fonte
Para aqueles de nós que preferem usar um aplicativo com uma GUI, existe o programa shareware barato DeepVacuum for Mac OS X , que é implementado
wget
de maneira amigável ao usuário, com uma lista de predefinições que podem lidar com tarefas geralmente necessárias. Você também pode salvar suas próprias configurações personalizadas como predefinições.fonte