Como salvar imagens em massa a partir de URLs

2

Eu tenho 1.200 URLs que apontam para imagens. Eu gostaria de salvá-los todos no meu disco rígido. Como posso fazer isso com uma operação em massa?

Chris
fonte
As urls das imagens são elas mesmas ou de páginas com imagens?
Unfundednut

Respostas:

0

Confira HTTrack para uma opção de interface gráfica. Se você não se importa em usar a linha de comando, wget pode aceitar um arquivo de texto como entrada (com o -i switch) contendo uma lista de URLs para download.

John T
fonte
Acabei de testar o software, gosto muito do que ele faz, sabe como manter o nome do arquivo original? O nome do arquivo está no link, por exemplo, 1250757780.jpg e é desse link img / i.php? Type = i & amp; file = 1250757780.jpg
Chris
Em Preferências e opções de espelhamento vou ao construir aba. Check off the box esconder strings de consulta . Isso deve fazer o truque. Você também pode definir seu próprio formato de salvamento personalizado na guia criada depois de clicar opções .
John T
Na verdade, o problema é que ele salva nomes como: i76f3.jpg deve ser algo como: 1250757780.jpg
Chris
Eu encontrei um bom software, é PicaLoader, este tem uma opção para salvar a imagem com um nome completo de URL
Chris
Oh, você quer que eu adicione isso à minha resposta?
John T
0

No Unix ou no cygwin, você pode usar o wget para obter o conteúdo de uma url. Eu acredito em algo tão simples quanto cat list_of_urls.txt | wget provavelmente faria o que você precisa.

Christopher Karel
fonte