Estou interessado em usar o Amazon S3 para fazer backup de imagens de servidor de ~ 100 GB (criadas por meio das ferramentas de backup da Acronis)
Obviamente, esse upload para o S3 todas as noites seria caro, em termos de largura de banda e custo. Estou pensando em usar o rsync com o S3 e me deparei com o s3rsync. Eu só estava me perguntando se alguém tinha alguma experiência usando isso, ou qualquer outro utilitário?
Respostas:
Recentemente, deparei com esta discussão no Google e parece que o cenário mudou um pouco desde que a pergunta foi feita. A maioria das soluções sugeridas aqui não é mais mantida ou se tornou comercial.
Após algumas frustrações ao trabalhar com o FUSE e algumas das outras soluções disponíveis, decidi escrever meu próprio "clone" de linha de comando rsync para S3 e Google Storage usando Python.
Você pode conferir o projeto no GitHub: http://github.com/seedifferently/boto_rsync
Outro projeto que eu tive conhecimento recentemente é a "duplicidade". Parece um pouco mais elaborado e pode ser encontrado aqui: http://duplicity.nongnu.org/
Espero que isto ajude.
ATUALIZAR
A equipe de Python da AWS está trabalhando duro em um projeto CLI baseado em boto para seus serviços em nuvem. Entre as ferramentas incluídas, há uma interface para o S3, que duplica (e sob muitos aspectos substitui) a maioria das funcionalidades fornecidas pelo boto-rsync:
https://github.com/aws/aws-cli
Em particular, o
sync
comando pode ser configurado para funcionar quase exatamente como o rsync:http://docs.aws.amazon.com/cli/latest/reference/s3/sync.html
fonte
Também tive sorte com o S3cmd e o S3sync , ambos gratuitos.
fonte
Dependendo de como as suas imagens Acronis são criadas, não tenho certeza de que algum tipo de rsync economize sua largura de banda. As imagens Acronis são arquivo (s) único (s), portanto, o rsync não poderá ler dentro delas para fazer backup apenas do que mudou. Também não tenho certeza de que tipo de imagens de servidor você está criando, mas desde que você disse 100 GB, vou assumir o total? Uma imagem incremental reduziria muito o tamanho da imagem noturna, economizando largura de banda. Você também pode salvar as imagens em um local alternativo ao S3, como mídia de fita, e armazená-las fora do local.
fonte
Eu nunca tentei o S3rsync.
Estou usando duplicidade para nossos backups externos. Ele suporta backups incrementais no S3, embora não esteja realmente economizando largura de banda devido ao protocolo de armazenamento Amazon S3, no qual qualquer modificação de arquivo obriga a carregar novamente o arquivo inteiro. Enfim, a duplicidade apenas carrega diferenças do último backup incremental.
Com o Duplicity, você não precisará passar por outro servidor, como o S3sync, no entanto, se você criptografar seus dados, vale a pena tentar o S3sync.
fonte
O S3 também possui um serviço complementar chamado AWS Import / Export que permite enviar uma unidade USB com o conjunto de dados inicial de 100 Gb e eles serão carregados na nuvem S3 usando algumas ferramentas de back-end em seus datacenters. Quando o seu 100Gb estiver lá em cima, você pode fazer backups diferenciais todas as noites para fazer backup de tudo o que mudou.
O site é http://aws.amazon.com/importexport/
Se a maioria dos seus dados for razoavelmente estática, essa seria uma boa opção, se todos os 100 GB de dados estiverem mudando diariamente, isso não ajudará muito.
fonte
Você pode tentar o minio client, também conhecido como "mc". O mc fornece ferramentas mínimas para trabalhar com sistemas de arquivos e armazenamento em nuvem compatíveis com Amazon S3.
mc implementa os seguintes comandos
Você pode usar o comando mirror para fazer sua operação. "localdir" sendo o diretório local & S3 [alias para Amazon S3] e o nome "remoteDir" do seu bucket no S3.
Você também pode escrever um cronjob para o mesmo. Também em caso de indignação da rede, você pode usar "$ mc session" para reiniciar o upload a partir desse momento.
PS: Eu contribuo para o projeto minio e gostaria de receber seu feedback e contribuição. Espero que ajude.
fonte
O novo Jungle Disk Server Edition (beta) pode ser útil para você. Possui desduplicação em nível de bloco, portanto, se suas imagens Acronis tiverem algo em comum, isso reduzirá bastante a quantidade que você precisa fazer backup. Os recursos são perfeitos para backups de servidores. Confira as notas de versão.
Estou testando a versão beta há duas semanas e, além de alguns pequenos problemas com a GUI que, com certeza, serão corrigidos na final, estou animado com o produto.
fonte