Site disponível on-line

2

Como disponibilizar offline o site / URL e as páginas filho associadas ao URL?

Por exemplo, eu quero que o android sdk no javadoc esteja disponível offline para que eu possa passar a qualquer momento, mesmo sem a Internet


fonte

Respostas:

2

Javadocs nada mais são do que simples páginas HTML geradas .
Portanto, você não precisa de nada sofisticado, mesmo um navegador local é suficiente se você quiser visualizá-lo.

Se você deseja hospedá-lo, qualquer servidor da web capaz de exibir páginas estáticas o fará.

Onde você pode baixá-lo?
O gerente do SDK o terá em Documentação.

Como alternativa, você pode obtê-los nos URLs:
Como:
https://dl-ssl.google.com/android/repository/docs-18_r02.zip

Substitua os números. (mesma convenção de nomenclatura, tente primeiro docs-19_r02.zip, depois -19_r01.zip, etc.).
Tenho certeza de que há uma lista em algum lugar, mas não consegui encontrá-la.

Shiki
fonte
Parece lógico que o Google, em seu próprio SDK, inclua uma cópia offline da sua documentação.
Doktoro Reichard
Eu nem chamaria o JavaDoc de uma documentação real. É uma grande ajuda enquanto você codifica e com certeza é detalhado / documentado, mas boa sorte para encontrar o que você precisa através dele. (Veja grandes libs do P4.)
Shiki
1

A maneira mais simples de fazer com que um URL funcione offline é configurar um servidor da Web localmente e hospedar os arquivos / recursos nele.

Assim, seu computador atuará como servidor da web para servir esses conteúdos.

Ankur Kumar
fonte
Isso funcionará apenas se o site estiver configurado com links relativos. Se houver quaisquer links absolutos, em seguida, as ligações vai quebrar.
ChrisF
@ankur Eu realmente preciso de um servidor para visualizar páginas da Web offline na área de trabalho local?
@ Guest Você não precisará se o conteúdo for html simples. Seu navegador exibirá o conteúdo html. Por favor, jogue um pouco mais de luz sobre sua pergunta, para que eu possa entendê-la com mais clareza e encontrar uma resposta adequada.
Ankur Kumar #
1

Por que não usar o Wget ? Citando a partir da página:

O GNU Wget é um pacote de software gratuito para recuperar arquivos usando HTTP, HTTPS e FTP , os protocolos da Internet mais usados. É uma ferramenta de linha de comando não interativa, portanto pode ser chamada facilmente de scripts, tarefas cron, terminais sem suporte ao X-Windows, etc.

O GNU Wget possui muitos recursos para facilitar a recuperação de arquivos grandes ou o espelhamento de sites inteiros da Web ou FTP, incluindo:

  • Pode retomar downloads abortados usando REST e RANGE
  • Pode usar curingas de nome de arquivo e espelhar recursivamente diretórios
  • Arquivos de mensagens baseados em NLS para vários idiomas diferentes
  • Opcionalmente, converte links absolutos nos documentos baixados em relativos, para que os documentos baixados possam se vincular localmente
  • É executado na maioria dos sistemas operacionais do tipo UNIX e no Microsoft Windows
  • Suporta proxies HTTP
  • Suporta cookies HTTP
  • Suporta conexões HTTP persistentes
  • Operação autônoma / em segundo plano
  • Usa registros de data e hora de arquivos locais para determinar se os documentos precisam ser baixados novamente ao espelhar
  • O GNU Wget é distribuído sob a Licença Pública Geral GNU.

Eu pessoalmente o usei para armazenar vários sites para visualizar ofine. Possui uma curva de aprendizado acentuada (devido a argumentos e afins), mas tem a capacidade de fazer tudo o que você deseja.

Há também uma porta do Wget para Windows , se você não tiver uma máquina UNIX.

Os possíveis argumentos que eu usaria para sua tarefa seriam algo como:

wget -r -p -k -np -w 1 http://developer.android.com/reference/

Explicando os comandos:

  • -r - Define a recuperação recursiva (ou seja, ele obterá qualquer link existente nessa página e assim por diante)
  • -p - Faz o download de tudo o necessário para que a página seja exibida corretamente
  • -k - Converte os links nos documentos para torná-los adequados para visualização local
  • -np - Nunca suba ao diretório pai ao recuperar recursivamente (ou seja, não volte)
  • -w 1- Aguarda 1 segundo entre cada recuperação. Isso é útil para não sobrecarregar o servidor com solicitações, o que pode causar erros 404 e outras coisas.

O uso do argumento é obtido no manual . Eu não executei isso, então não posso dizer com certeza que ele rastreará adequadamente, mas com alguns ajustes, isso funcionaria.

Doktoro Reichard
fonte