Eu tenho uma rede com servidores Live, Aceitação do Usuário, preparo e desenvolvimento (nesse caso, o Windows principalmente 2012r2, todos os convidados do Hyper-V). Cada uma dessas partes da rede possui um servidor front-end e back-end. Os servidores back-end contêm quantidades proporcionalmente grandes de dados. Em todos os servidores de preparação e desenvolvimento, esses dados não são alterados (além da atualização ocasional do live) e raramente são acessados fora do ciclo de desenvolvimento.
Nesse tipo de ambiente, como você minimiza o consumo de armazenamento e evita desperdiçar espaço de armazenamento em dados estáticos e raramente acessados. Os dados consistem em milhares de arquivos, como pdf, json, dwgs e pngs.
Coisas que eu considerei.
Exclusão de servidores enquanto não estiver em uso - Não é uma ótima opção, pois às vezes o tempo para restaurar esses servidores pesa o tempo que os desenvolvedores os usarão. Nossa solução de backup é o gerenciador do MS Data Protection.
Exclusão de discos de dados enquanto não estiver em uso - Um pouco melhor do que o anterior, mas novamente o tempo é um fator.
Movendo discos de dados entre servidores - Como eles são convidados do Hyper-V, eu poderia anexar os discos de dados conforme necessário, no entanto, há momentos em que mais de um ambiente está em uso ao mesmo tempo.
Respostas:
Convém verificar alguns servidores de arquivos híbridos, um que transfere dados frios para a nuvem pública, onde o armazenamento é barato (S3) ou quase gratuito (Glacier). Se você tiver um contrato corporativo no Azure, convém experimentar o StorSimple da Microsoft, físico e virtual.
https://azure.microsoft.com/en-us/services/storsimple/
Nasuni também é bom, mas não tem SMB3 confiável até agora.
https://www.nasuni.com
fonte
Existem muitas soluções interessantes no mercado, eu não testei a Nasuni, mas parece adequado. Além disso, você pode dar uma olhada no Aclouda, que pode ser usado como um gateway de hardware e apresentar o armazenamento em nuvem como uma unidade local e descarregar dados para a nuvem automaticamente. Ele pode ser instalado em um servidor local como unidade SATA / SAS com conectividade à nuvem Amazon ou Azure. http://aclouda.com/
fonte
Como você possui uma quantidade considerável de dados que não muda muito com o tempo, recomendo que você implemente algum tipo de classificação por camadas (os Espaços de Armazenamento com classificação automatizada devem se ajustar). A idéia é que a camada "quente", que é o armazenamento local, deve conter os dados mais recentes que devem ser acessados rapidamente e a camada "fria" pode ser transferida para a nuvem.
A idéia não é nova - o Nasuni https://www.nasuni.com/ faz coisas muito semelhantes a essa abordagem. Uma opção DIY é o S3Fuse https://www.interserver.net/tips/kb/mount-s3-bucket-centos-ubuntu-using-s3fs/, que permite montar um armazenamento em nuvem como uma unidade local. O StorSimple https://azure.microsoft.com/en-us/services/storsimple/ é outra opção, mas está estritamente vinculado ao Azure.
Se você não estiver disposto a instalar / configurar e manter qualquer software adicional, poderá usar um gateway de hardware como o AcloudA http://aclouda.com/ que fará o trabalho sem exigir nenhum software ou drivers adicionais.
fonte
Como seus convidados são o Windows 2012 R2, você pode executar a desduplicação dentro da VM. Exceto pelo rastreamento inicial, achei que ele não consome muitos recursos. Nas lojas de documentos, minhas economias foram de 55% ou mais.
Se o seu armazenamento estivesse em um servidor Windows (Espaços de Armazenamento e similares), você poderia deduplicar sua loja VHD. O uso da opção VDI ao configurar a desduplicação em um volume ativa a desduplicação de VHDs abertos. Consulte https://technet.microsoft.com/en-us/library/dn486808.aspx
fonte