Como você usa o wget para baixar um site inteiro (domínio A) quando seus recursos estão em outro domínio (domínio B)? Eu tentei: wget -r --level=inf -p -k -E --domains=domainA,domainB
Como você usa o wget para baixar um site inteiro (domínio A) quando seus recursos estão em outro domínio (domínio B)? Eu tentei: wget -r --level=inf -p -k -E --domains=domainA,domainB
Estou usando wget --mirror --html-extension --convert-linkspara espelhar um site, mas acabo com muitos nomes de arquivos no formato post.php?id=#.html. Quando tento visualizá-las em um navegador, ele falha, porque o navegador ignora a sequência de consultas ao carregar o arquivo. Existe alguma...
Eu tenho um site e quero fazer o download de todas as páginas / links desse site. Eu quero fazer um wget -rneste URL. Nenhum dos links fica "fora" deste diretório específico, por isso não estou preocupado em baixar a Internet inteira. Como se vê, as páginas que eu quero estão atrás da seção...
wget --load-cookiescarregará os cookies como um "arquivo de texto no formato originalmente usado pelo arquivo cookies.txt do Netscape". No entanto, o Firefox mantém seus cookies em um banco de dados SQLite . Existe uma maneira de extrair o "arquivo cookies.txt do Netscape" do cookies.sqlitearquivo...
Eu quero buscar um tarball desta biblioteca python do terminal. https://github.com/simplegeo/python-oauth2/downloads No entanto, não posso simplesmente chamar wget https://github.com/simplegeo/python-oauth2/tarball/master porque isso recupera uma página da web. Como obtenho esse recurso no...
Essencialmente, quero rastrear um site inteiro com o Wget, mas preciso que NUNCA baixe outros ativos (por exemplo, imagens, CSS, JS, etc.). Eu só quero os arquivos HTML. As pesquisas no Google são completamente inúteis. Aqui está um comando que eu tentei: wget --limit-rate=200k --no-clobber...
Estou tentando obter alguns arquivos do meu servidor ftp na linha de comando. Estou usando o wget para baixar a pasta inteira de uma só vez. O comando é: wget -m ftp://username:[email protected]:/path/to/folder Mas o problema é que minha senha contém o símbolo '@'. Portanto, o comando se...
Estou usando o Linux Mint 15 Cinnamon executando a partir de um pendrive de 8GB. Quero obter a ISO do 'Linux Mint 14 “Nadia” KDE'. Eu tentei usar wgetno terminal. Aqui está exatamente o que eu digitei: wget http://mirror.ufs.ac.za/linuxmint/stable/14/linuxmint-14-kde-dvd-64bit.iso depois de...
Se eu escrever o wget "sem esse endereço" -o "test.html", ele primeiro cria o test.html e, em caso de falha, deixa em branco. No entanto, quando não estiver usando -o, ele aguardará para ver se o download foi bem-sucedido e somente depois disso gravará o arquivo. Gostaria que o último...
Como você instrui o wget a rastrear recursivamente um site e fazer o download apenas de certos tipos de imagens? Tentei usar isso para rastrear um site e baixar apenas imagens JPEG: wget --no-parent --wait=10 --limit-rate=100K --recursive --accept=jpg,jpeg --no-directories
Eu tenho um arquivo muito grande hospedado em cinco servidores diferentes. Eu gostaria de poder baixar partes diferentes do arquivo de cada servidor e concatenar as partes posteriormente, para produzir o arquivo original. Existe alguma maneira de fazer isso com o curl / wget ou qualquer outra...
Estou tentando usar o wget para criar um espelho local de um site. Mas estou descobrindo que não estou recebendo todas as páginas vinculadas. Aqui está o site http://web.archive.org/web/20110722080716/http://cst-www.nrl.navy.mil/lattice/ Não quero todas as páginas que começam com...
Sei que você pode baixar páginas da Web recursivamente usando wget, mas é possível executar uma execução a seco? Para que você pudesse executar um teste para ver quanto seria baixado se realmente o fizesse? Pensando em páginas que possuem muitos links para arquivos de mídia como, por exemplo,...
Estou tentando fazer o download de um URL semelhante http://www.somesite.com/restaurants.html#photo=22x00085. Coloquei-o entre aspas simples, mas ele só baixa http://www.somesite.com/restaurants.html, que não é a página correta. Há uma
Finja que queria que uma cópia simples da página fosse baixada para o meu HD para manutenção permanente. Não estou procurando uma obtenção recursiva profunda, apenas uma única página, mas também quaisquer recursos carregados por essa página para serem baixados. Exemplo:...
Como posso escrever um script bash que faça o seguinte: URL = "example.com/imageID=" while (1..100) wget URL + $i #it will wget example.com/imageID=1, then 2, then 3, etc done Então, eu tenho um número de loops para executar, uma URL que termina com um número do loop. Eu preciso de wgettudo...
Se executado sem parâmetros, minhas wgetimpressões: D:\>wget SYSTEM_WGETRC = c:/progra~1/wget/etc/wgetrc syswgetrc = c:/progra~1/wget/etc/wgetrc D:\Apps\Util\wget: missing URL Usage: D:\Apps\Util\wget [OPTION]... [URL]... Try `D:\Apps\Util\wget --help' for more options. Isso provavelmente...
Estou tentando baixar dois sites para inclusão em um CD: http://boinc.berkeley.edu/trac/wiki http://www.boinc-wiki.info O problema que estou tendo é que esses dois são wikis. Então, ao baixar com, por exemplo: wget -r -k -np -nv -R jpg,jpeg,gif,png,tif http://www.boinc-wiki.info/ Eu recebo...
Eu tenho um URL de página html e quero cumprimentá-lo. Como posso fazer isso wget someArgs | grep keyword? Minha primeira idéia foi wget -q -O - url | grep keyword, mas a saída do wget ignora o grep e surge no terminal em sua forma
Ok, eu desisto. Como limite o tamanho dos arquivos baixados, como, por exemplo, não quero arquivos com mais de 2