A VMware e muitos evangelistas de rede tentam informar que SANs de fibra sofisticadas (= caras) são a "única" opção de armazenamento para servidores VMware ESX e ESXi. Bem, sim, claro. O uso de uma SAN é rápido, confiável e possibilita o vMotion. Ótimo. Mas: todos os usuários do ESX / ESXi podem realmente pagar por SANs?
Minha teoria é que menos de 20% de todas as instalações do VMware ESX neste planeta realmente usam SANs de fibra ou iSCS. A maioria dessas instalações ocorrerá em empresas maiores que podem pagar por isso. Eu previa que a maioria das instalações do VMware usa "armazenamento anexado" (os vmdks são armazenados em discos dentro do servidor). A maioria deles funciona em PME e existem muitos!
Executamos dois servidores ESX 3.5 com armazenamento conectado e dois servidores ESX 4 com um san iSCS. E a "diferença real ao vivo" entre os dois é quase imperceptível :-)
Você conhece alguma estatística oficial para esta pergunta? O que você usa como meio de armazenamento?
fonte
Respostas:
Faço muito trabalho de consultoria da VMware e diria que as porcentagens estão próximas a 80% da base instalada e usam armazenamento compartilhado de alta disponibilidade (FC, iSCSI ou NAS de ponta) e muitos dos meus clientes são PME. O principal fator que eu descobri é se a empresa trata seu tempo de atividade do servidor como crítico ou não, para a maioria das empresas hoje em dia.
Você certamente pode executar VMs de alto desempenho a partir do armazenamento anexado direto (um HP DL380 G6 com 16 unidades internas em uma matriz RAID 10 teria E / S de disco muito rápidas), mas se você estiver construindo um VMware ou qualquer outro ambiente virtualizado para substituir dezenas, centenas , ou milhares de servidores, você ficará louco se não estiver fazendo muito esforço (e provavelmente dinheiro) em uma arquitetura de armazenamento robusta.
Você não precisa comprar uma SAN de ponta para as funções de cluster - é possível implementá-las com um NAS bastante barato (ou uma SAN virtualizada como o VSA da HP \ Lefthand) e ainda estar usando armazenamento certificado. No entanto, se você estiver usando armazenamento compartilhado e ele não tiver redundância em todos os pontos da infraestrutura SAN \ NAS, não deverá usá-lo para muito mais do que testar. E a redundância é (no mínimo) NICs de armazenamento \ HBA duplas (independentes) em seus servidores, malhas independentes duplas, controladores redundantes na SAN, cache \ cache com destino à bateria, destino de cache \ cache, ventiladores hot swappable redundantes e fontes de alimentação etc., RAID 5 \ 6 \ 10 \ 50 e números apropriados de hot spares.
A verdadeira diferença real entre seus sistemas é que, se um de seus sistemas autônomos falhar catastroficamente, você terá muito trabalho para recuperá-lo e sofrerá tempo de inatividade apenas mantendo-o corrigido. Com os sistemas conectados à SAN em cluster, a correção dos hipervisores ou mesmo a atualização do hardware do hipervisor deve resultar em tempo de inatividade zero. Uma falha catastrófica do servidor simplesmente interrompe o serviço pelo período de tempo necessário para reiniciar a VM em um nó separado (na pior das hipóteses) ou se você tiver tolerância a falhas cobrindo essas VMs, não terá tempo de inatividade.
fonte
Como uma empresa com mais de mil hosts, começamos com o FC, experimentamos o iSCSI por um tempo, mas nos retiramos para o FC devido a problemas de desempenho. Estamos olhando seriamente para o NFS, mas ainda não temos conclusões. Ah, e usamos o HP XP / EVA e alguns NetApp, não temos barras de armazenamento local / hosts de desktop dev.
fonte
Como você pode ver, não existe um tamanho único e não precisa de uma solução de armazenamento de classe única. Você pode ter várias classes de armazenamento, dependendo dos requisitos de disponibilidade e desempenho
fonte
Para gravações e leituras de alto desempenho, eu achei o FC imbatível no desempenho e, embora o preço seja alto ... Simplesmente funciona ... para expectativas de desempenho mais mundanas, o iSCSI realmente teve um desempenho muito bom, então normalmente tenho o troque arquivos de caixa de correio do servidor em um subsistema de disco FC e as unidades de inicialização reais em um disco de interface iSCSI, com os servidores DNS e as máquinas do Active Directory também em execução no iSCSI.
fonte
Eu executei o ESX com SANs, NAS e DAS. Depende inteiramente de:
Por confiabilidade e velocidade, acho que você não consegue vencer uma SAN.
Por confiabilidade e custo, eu usaria o NAS.
E por velocidade e custo, DAS.
Não que as opções individuais não se sobreponham a algumas, mas esses são os pontos fortes que testemunhei.
fonte
Executamos 4 servidores ESX 4 e usamos uma SAN iSCSI EqualLogic.
fonte
Em instalações menores, o armazenamento local é perfeitamente aceitável, desde que você tenha discos decentes - eu diria unidades de 10k RPM + SAS. A única vez que você DEVE usar um disco compartilhado (não intencionalmente não disse san, pois seu disco compartilhado pode estar desativado e o compartilhamento NFS) é quando você precisa fazer cluster - VMWare HA e DRS.
No momento, temos três camadas de armazenamento - SAN FiberChannel, SANs Equalogix de ponta e SANs MD3000i de ponta. Os dois finais são iSCSI. Também executamos alguns servidores com o armazenamento local dos servidores ESX - principalmente servidores utilitários que não nos importam se ficarem inativos por uma ou duas horas, enquanto consertamos as coisas se tudo der certo.
Também estamos executando nosso ambiente de teste em um NAS interno, usando unidades SATA de 7.2k e o alvo corporativo iSCSI (o desempenho não é tão bom assim, mas nos deixa satisfeitos).
Muitas pessoas tendem a concorrer com as ações da NFS em ambientes maiores também. Eu queria brincar com isso por um tempo, mas não encontrei tempo.
fonte
Executamos quatro (bem, quatro ativos, um para teste) hosts ESXi com uma malha iSCSI criada a partir de switches de commodity e uma SAN Hitachi de ponta - um SMS-100.
Mesmo nesse nível, temos controladores duplos, cada um com portas duplas em um backplane SAS, para que ambos controlem os discos e placas de rede gêmeas - as quais cruzamos o fio para os comutadores duplos e para as placas gêmeas nos hosts ESX.
Cada um dos volumes vfs possui quatro caminhos visíveis, portanto é razoavelmente tolerante. Usamos o Dell poweredge switching para a malha - eles têm problemas em potencial (menos ainda, nenhuma PSU redundante) .. mas também são baratos o suficiente para que duas peças pré-configuradas em uma caixa prontas para troca se tornem uma possibilidade real.
Obviamente, se você quiser mais noves, precisará gastar mais dinheiro, mas acho que a beleza do kit Ethernet iSCSI, ESXi e commodity Gigabit é que você pode superar o seu peso em termos de resiliência e desempenho.
fonte
Tudo tem seus prós e contras ... o resultado final é SLA, carga de aplicativo e escala. Portanto, se você precisar de armazenamento de alto desempenho para uma implantação pequena (de 1 a 5 hosts), provavelmente poderá executá-lo com o NFS (na verdade, uma vez consegui uma melhor latência com o NFS do que com a SAN usando discos RAM). Agora tente dimensionar isso e você descobrirá que o custo de replicar sua configuração em escala é muito comparável a uma boa SAN, tornando o FC a única opção lógica para ler ... Na maioria das vezes, acabo usando combinações para vários serviços (aplicativos , DBs, backups, arquivos) não é uma plataforma única para otimizar custos, dependendo das necessidades.
fonte