Que tipo de armazenamento as pessoas realmente usam para servidores VMware ESX?

27

A VMware e muitos evangelistas de rede tentam informar que SANs de fibra sofisticadas (= caras) são a "única" opção de armazenamento para servidores VMware ESX e ESXi. Bem, sim, claro. O uso de uma SAN é rápido, confiável e possibilita o vMotion. Ótimo. Mas: todos os usuários do ESX / ESXi podem realmente pagar por SANs?

Minha teoria é que menos de 20% de todas as instalações do VMware ESX neste planeta realmente usam SANs de fibra ou iSCS. A maioria dessas instalações ocorrerá em empresas maiores que podem pagar por isso. Eu previa que a maioria das instalações do VMware usa "armazenamento anexado" (os vmdks são armazenados em discos dentro do servidor). A maioria deles funciona em PME e existem muitos!

Executamos dois servidores ESX 3.5 com armazenamento conectado e dois servidores ESX 4 com um san iSCS. E a "diferença real ao vivo" entre os dois é quase imperceptível :-)

Você conhece alguma estatística oficial para esta pergunta? O que você usa como meio de armazenamento?

Dirk Paessler
fonte
5
Deve ser um wiki da comunidade
MDMarra 2/09/09
Tese ou Teoria?
Mark Henderson

Respostas:

27

Faço muito trabalho de consultoria da VMware e diria que as porcentagens estão próximas a 80% da base instalada e usam armazenamento compartilhado de alta disponibilidade (FC, iSCSI ou NAS de ponta) e muitos dos meus clientes são PME. O principal fator que eu descobri é se a empresa trata seu tempo de atividade do servidor como crítico ou não, para a maioria das empresas hoje em dia.

Você certamente pode executar VMs de alto desempenho a partir do armazenamento anexado direto (um HP DL380 G6 com 16 unidades internas em uma matriz RAID 10 teria E / S de disco muito rápidas), mas se você estiver construindo um VMware ou qualquer outro ambiente virtualizado para substituir dezenas, centenas , ou milhares de servidores, você ficará louco se não estiver fazendo muito esforço (e provavelmente dinheiro) em uma arquitetura de armazenamento robusta.

Você não precisa comprar uma SAN de ponta para as funções de cluster - é possível implementá-las com um NAS bastante barato (ou uma SAN virtualizada como o VSA da HP \ Lefthand) e ainda estar usando armazenamento certificado. No entanto, se você estiver usando armazenamento compartilhado e ele não tiver redundância em todos os pontos da infraestrutura SAN \ NAS, não deverá usá-lo para muito mais do que testar. E a redundância é (no mínimo) NICs de armazenamento \ HBA duplas (independentes) em seus servidores, malhas independentes duplas, controladores redundantes na SAN, cache \ cache com destino à bateria, destino de cache \ cache, ventiladores hot swappable redundantes e fontes de alimentação etc., RAID 5 \ 6 \ 10 \ 50 e números apropriados de hot spares.

A verdadeira diferença real entre seus sistemas é que, se um de seus sistemas autônomos falhar catastroficamente, você terá muito trabalho para recuperá-lo e sofrerá tempo de inatividade apenas mantendo-o corrigido. Com os sistemas conectados à SAN em cluster, a correção dos hipervisores ou mesmo a atualização do hardware do hipervisor deve resultar em tempo de inatividade zero. Uma falha catastrófica do servidor simplesmente interrompe o serviço pelo período de tempo necessário para reiniciar a VM em um nó separado (na pior das hipóteses) ou se você tiver tolerância a falhas cobrindo essas VMs, não terá tempo de inatividade.

Helvick
fonte
Dependendo do seu negócio, a redundância super-duper de tudo pode ser um exagero - algumas peças de reposição (hbas e gbics, por exemplo) podem cobrir muitos problemas. Se você possui failover de cluster, isso, além de alguns equipamentos, pode fornecer resiliência suficiente para muitas empresas, especialmente quando o FC está dando choque de etiqueta.
9119 Jim Zajkowski
Devo adicionar nossos oito servidores ESX, todos usam disco FC compartilhado para armazenamento.
9119 Jim Zajkowski
11
O choque verdadeiro e o adesivo FC é um problema real (os custos de licenciamento de portas nos comutadores FC em particular me causam azia), mas para suporte a longo prazo, com redundância total torna tudo muito mais fácil de gerenciar, você pode evitar quase todo o tempo de inatividade para manutenção da infraestrutura, por exemplo. . Com o FC, essa redundância custa um braço e uma perna (e talvez um rim ou dois), com certeza, mas com o iSCSI ou um ambiente NAS, isso não adiciona muito ao custo geral, mesmo ao usar componentes relativamente caros.
Helvick 3/11/2009
11
Ainda estou para ver "duplicar tudo" ... geralmente as unidades SAN são conectadas a um backplane, que é, portanto, um ponto único de falha.
James Risto
1

Como uma empresa com mais de mil hosts, começamos com o FC, experimentamos o iSCSI por um tempo, mas nos retiramos para o FC devido a problemas de desempenho. Estamos olhando seriamente para o NFS, mas ainda não temos conclusões. Ah, e usamos o HP XP / EVA e alguns NetApp, não temos barras de armazenamento local / hosts de desktop dev.

Chopper3
fonte
1

Como você pode ver, não existe um tamanho único e não precisa de uma solução de armazenamento de classe única. Você pode ter várias classes de armazenamento, dependendo dos requisitos de disponibilidade e desempenho

allruiz
fonte
1

Para gravações e leituras de alto desempenho, eu achei o FC imbatível no desempenho e, embora o preço seja alto ... Simplesmente funciona ... para expectativas de desempenho mais mundanas, o iSCSI realmente teve um desempenho muito bom, então normalmente tenho o troque arquivos de caixa de correio do servidor em um subsistema de disco FC e as unidades de inicialização reais em um disco de interface iSCSI, com os servidores DNS e as máquinas do Active Directory também em execução no iSCSI.

Stephen Thompson
fonte
1

Eu executei o ESX com SANs, NAS e DAS. Depende inteiramente de:

  1. despesas
  2. experiência
  3. data center e / ou espaço em rack
  4. dinheiro

Por confiabilidade e velocidade, acho que você não consegue vencer uma SAN.

Por confiabilidade e custo, eu usaria o NAS.

E por velocidade e custo, DAS.

Não que as opções individuais não se sobreponham a algumas, mas esses são os pontos fortes que testemunhei.

Warren
fonte
0

Executamos 4 servidores ESX 4 e usamos uma SAN iSCSI EqualLogic.

Richard West
fonte
Como o equipamento EqualLogic se compara ao SAN de mão esquerda ou tradicional em termos de preço e desempenho?
Sim
Estou curioso também para saber como LeftHand compara agora que HP ahs os adquiriu
Warren
Eu não tenho nenhum experince com LeftHand. Na verdade, estou no processo de fazer algumas comparações entre nossa configuração EqualLogic e uma SAN Fibre Channel da Compellent. Vou postar de volta com uma atualização quando tiver alguns resultados.
2113 Richard West
0

Em instalações menores, o armazenamento local é perfeitamente aceitável, desde que você tenha discos decentes - eu diria unidades de 10k RPM + SAS. A única vez que você DEVE usar um disco compartilhado (não intencionalmente não disse san, pois seu disco compartilhado pode estar desativado e o compartilhamento NFS) é quando você precisa fazer cluster - VMWare HA e DRS.

No momento, temos três camadas de armazenamento - SAN FiberChannel, SANs Equalogix de ponta e SANs MD3000i de ponta. Os dois finais são iSCSI. Também executamos alguns servidores com o armazenamento local dos servidores ESX - principalmente servidores utilitários que não nos importam se ficarem inativos por uma ou duas horas, enquanto consertamos as coisas se tudo der certo.

Também estamos executando nosso ambiente de teste em um NAS interno, usando unidades SATA de 7.2k e o alvo corporativo iSCSI (o desempenho não é tão bom assim, mas nos deixa satisfeitos).

Muitas pessoas tendem a concorrer com as ações da NFS em ambientes maiores também. Eu queria brincar com isso por um tempo, mas não encontrei tempo.

Zypher
fonte
0

Executamos quatro (bem, quatro ativos, um para teste) hosts ESXi com uma malha iSCSI criada a partir de switches de commodity e uma SAN Hitachi de ponta - um SMS-100.

Mesmo nesse nível, temos controladores duplos, cada um com portas duplas em um backplane SAS, para que ambos controlem os discos e placas de rede gêmeas - as quais cruzamos o fio para os comutadores duplos e para as placas gêmeas nos hosts ESX.

Cada um dos volumes vfs possui quatro caminhos visíveis, portanto é razoavelmente tolerante. Usamos o Dell poweredge switching para a malha - eles têm problemas em potencial (menos ainda, nenhuma PSU redundante) .. mas também são baratos o suficiente para que duas peças pré-configuradas em uma caixa prontas para troca se tornem uma possibilidade real.

Obviamente, se você quiser mais noves, precisará gastar mais dinheiro, mas acho que a beleza do kit Ethernet iSCSI, ESXi e commodity Gigabit é que você pode superar o seu peso em termos de resiliência e desempenho.

TheoJones
fonte
0

Tudo tem seus prós e contras ... o resultado final é SLA, carga de aplicativo e escala. Portanto, se você precisar de armazenamento de alto desempenho para uma implantação pequena (de 1 a 5 hosts), provavelmente poderá executá-lo com o NFS (na verdade, uma vez consegui uma melhor latência com o NFS do que com a SAN usando discos RAM). Agora tente dimensionar isso e você descobrirá que o custo de replicar sua configuração em escala é muito comparável a uma boa SAN, tornando o FC a única opção lógica para ler ... Na maioria das vezes, acabo usando combinações para vários serviços (aplicativos , DBs, backups, arquivos) não é uma plataforma única para otimizar custos, dependendo das necessidades.

a.atlam
fonte