As unidades “corporativas” podem ser substituídas com segurança pela linha média / média em algumas situações?

22

Ao especificar servidores, como (eu diria) muitos engenheiros que não são especialistas em armazenamento, geralmente jogarei com segurança (e talvez seja um escravo do marketing) padronizando em um mínimo de 10k unidades SAS (e, portanto, " empresa "- atualize com um ciclo de serviço 24x7, etc) para dados do" sistema "(geralmente SO e, às vezes, aplicativos) e reserve o uso de 7,2k unidades intermediárias / locais para armazenamento de dados que não são do sistema, onde o desempenho não é significativo fator. Isso tudo pressupõe discos de 2,5 "(SFF), pois os discos de 3,5" (LFF) são realmente relevantes apenas para requisitos de IOPs de alta capacidade e baixo.

Em situações em que não há uma quantidade enorme de dados que não sejam do sistema, geralmente os coloco nos mesmos discos / matriz que os dados do sistema, o que significa que o servidor tem apenas 10k de unidades SAS (geralmente do tipo "One Big RAID10" de configuração atualmente). Somente se o tamanho dos dados não pertencentes ao sistema for significativo, eu normalmente considero colocá-los em uma matriz separada de 7,2k discos médios / nearline para manter o custo / GB baixo.

Isso me levou a pensar: em algumas situações, esses discos de 10k na matriz RAID10 poderiam ter sido substituídos por discos de 7.2k sem consequências negativas significativas? Em outras palavras, às vezes estou superespecificando (e mantendo os fornecedores de hardware satisfeitos) aderindo a um mínimo de 10 mil discos "corporativos" ou há um bom motivo para sempre manter isso no mínimo?

Por exemplo, considere um servidor que atua como um hypervisor com duas VMs para uma empresa pequena típica (digamos, 50 usuários). A empresa possui padrões médios de E / S sem requisitos especiais. Escritório típico 9-5, de segunda a sexta, com backups em execução por algumas horas por noite. Talvez as VMs possam ser um controlador de domínio e um servidor de arquivos / impressão / aplicativo. O servidor possui uma matriz RAID10 com 6 discos para armazenar todos os dados (dados do sistema e não pertencentes ao sistema). Para meus olhos não especialistas, parece que os discos mid / nearline podem funcionar perfeitamente. Tomando os discos da HP como exemplo:

  • Carga de trabalho: os discos da linha média são classificados para <40% da carga de trabalho. Como o escritório fica aberto apenas 9 horas por dia e a E / S média durante esse período provavelmente não chega nem perto do máximo, parece improvável que a carga de trabalho ultrapasse 40%. Mesmo com algumas horas de E / S intensa à noite para backups, acho que ainda estaria abaixo de 40%
  • Velocidade: embora os discos tenham apenas 7,2k, o desempenho é aprimorado espalhando-o por seis discos

Então, minha pergunta: é sensato colar um mínimo de 10k de unidades SAS ou os discos de linha média / nearline de 7.2k são realmente mais que adequados em muitas situações? Em caso afirmativo, como avaliar onde está a linha e evitar ser escravo da ignorância por jogar com segurança?

Minha experiência é principalmente com servidores HP, portanto, as opções acima podem ter um pouco de inclinação da HP, mas eu diria que os princípios são relativamente independentes do fornecedor.

dbr
fonte
3
Os discos da linha média do SFF 7.2k não fazem sentido por causa das limitações de capacidade e serviço. Se você está falando de equipamentos HP (minha especialidade) , as unidades SAS de 900 GB e 1,2 TB de 10k serão a melhor opção se você não estiver usando SSDs. Se você estiver nos EUA, o SAS de 900 GB deve ser de ~ US $ 300 a 400 se você tiver um bom fornecedor.
ewwhite
1
Queixa gramatical menor: se você disser "substituto X para Y", que significa que você teve Y para começar e estão substituindo-o por X.
pjc50
2
Tem certeza que você mora em 2015? Porque, há alguns anos, minha unidade do sistema operacional é um pequeno SSD (economiza energia etc.) e eu também não usaria nenhum HD para obter alto desempenho.
TomTom
1
@ TomTom Não, estou em 2016 :) Com toda a seriedade, eu realmente não considerei isso. Como eu disse no meu post, geralmente vou adotar uma abordagem de "um grande RAID 10" hoje em dia, então o sistema operacional continuará lá. Separar o SO em um SSD separado parece um desperdício, se não for realmente necessário. Eu ficaria interessado em ouvir seus pensamentos. Você usaria um único SSD ou um par espelhado? Talvez esta seria uma boa pergunta SF por si só ...
DBR
1
Par espelhado para SO. A HP até vende SSDs específicos para SO / inicialização.
ewwhite

Respostas:

25

Há uma interseção interessante entre design de servidor, tecnologia de disco e economia aqui:

Veja também: Por que os discos Large Form Factor (LFF) ainda são bastante prevalentes?

  • A mudança para servidores densos de montagem em rack e pequenos formatos. Por exemplo, você não vê mais muitas ofertas de torres dos principais fabricantes, enquanto as linhas de produtos mais densas desfrutam de revisões mais frequentes e têm mais opções / disponibilidade.
  • A estagnação no desenvolvimento de disco corporativo de 3,5 "(15k) - 600GB 15k 3,5" é o maior tamanho possível.
  • Avanço lento nas capacidades de disco de 2,5 "na linha próxima (7,2k) - 2 TB é o maior que você encontrará lá.
  • Maior disponibilidade e menor preço de SSDs de alta capacidade.
  • Consolidação de armazenamento em armazenamento compartilhado. Às vezes, cargas de trabalho de servidor único que exigem alta capacidade podem ser atendidas via SAN.
  • A maturação de matrizes de armazenamento totalmente em flash e híbridas, além do influxo de startups de armazenamento.

A descrição acima é por que você geralmente encontra fabricantes focando em servidores 1U / 2U com compartimentos de unidade de disco de 8 a 24 polegadas e 2,5 ".

Os discos de 3,5 "destinam-se a casos de uso de alta capacidade com baixa IOPs (2 TB +). Eles são melhores para gabinetes de armazenamento externo ou armazenamento SAN à frente de algum tipo de cache. Nas velocidades corporativas de 15k RPM, elas estão disponíveis apenas até 600GB.

Os discos giratórios de 2,5 "10k RPM são para necessidades mais altas de IOPS e geralmente estão disponíveis com capacidade de até 1,8 TB.

Os discos giratórios de 2,5 "RPM de 7,2k são uma péssima escolha porque não oferecem capacidade, desempenho, longevidade nem vantagens de preço. Por exemplo, o custo de uma unidade SAS de 10GB de 900GB é muito próximo ao de um SAS de 1TB de 7.2k RPM. Dado o pequeno preço diferença, a unidade de 900 GB é a melhor compra.No exemplo de SAS de 1,8 TB de 10k versus SAS de 7.2 TB de 2.0 TB , os preços também estão muito próximos.As garantias são de 3 e 1 ano, respectivamente.

Portanto, para servidores e armazenamento interno de 2,5 ", use SSD ou 10k. Se você precisar de capacidade e tiver compartimentos de unidade de 3,5" disponíveis interna ou externamente, use 7,2k RPM.

Para os casos de uso que você descreveu, você não está configurando demais os servidores. Se eles tiverem compartimentos de unidade de 2,5 ", você realmente deveria usar SAS ou SSD de 10k. Os discos da linha média perdem desempenho, capacidade, têm uma garantia significativamente menor e não economizam muito em custos.

ewwhite
fonte
Obrigado por reservar um tempo para montar isso. Terei a chance de pensar um pouco sobre isso amanhã. Só de olhar rapidamente os preços, parece um salto de cerca de 30% entre os 1TB 7.2k e os 900GB 10k, o que não é enorme (estou no Reino Unido, se for o caso). Pode ser um fator se você estiver com um orçamento apertado, embora esteja tentando fazer uma economia razoável em vários locais e a seleção de disco seja apenas um deles. Também ficaria interessado em ouvir o que você pensa sobre a questão de uma perspectiva puramente técnica.
dbr 18/01
Do ponto de vista técnico, não há vantagem em um disco de 7200 RPM 2,5 ". Se os custos parecerem muito altos, continue comprando. Há pouca diferença nesse mercado. Se isso for para fins de disco de inicialização, o SSD é uma boa alternativa. Mas eu não consigo pensar em nenhum motivo para usar hoje um disco HP 7200 2,5 "em um servidor. Além disso, leia atentamente os seus quickspecs HP. A unidade de linha média possui garantias mais curtas.
ewwhite
1
Em geral, essa resposta é ótima. Mas, como em qualquer outra coisa, "depende". No exemplo de um disco de 900GB 10k vs 1TB 7200, o disco de 1TB será mais frio e, portanto, talvez durará mais e será mais barato. Se você não precisa de desempenho adicional, é um desperdício de dinheiro, tanto o custo de capital original quanto as operações. Para um servidor, isso não importa muito. Para 10, começa a somar.
Dan Pritts
2
Realmente o disco que roda mais lentamente vai durar mais tempo? Falta algum artigo?
precisa saber é o seguinte
2
Do ponto de vista de um fornecedor / fabricante, sim. Eles estão direcionando você para 10k e SSD para 2,5 ". Se você trabalha com boxe branco, vá a 7200 RPM. Na verdade, meu fornecedor de armazenamento ZFS, PogoStorage , usa 7200 RPM 2,5" para suas matrizes ZFS, porque o armazenamento em cache e as camadas SSD eliminam o precisa especificar discos mais rápidos.
ewwhite
5

Existem pelo menos algumas coisas que podem causar problemas com ALGUNS tipos de unidades:

  • Unidades que não são destinadas a lidar com a carga de vibração de um chassi com muitas unidades (problema improvável com qualquer unidade especificada como compatível com RAID / NAS)

  • Firmware que não permite TLER ou precisa de reconfiguração manual demorada da unidade para habilitá-lo (idem)

  • Unidades que nunca foram testadas com o controlador RAID usado e podem ter erros não reconhecidos que aparecem nessa configuração

  • Caches de gravação de unidade interna que se comportam de maneira (a gravação física está fora de ordem ou muito atrasada) que causa muita confusão em caso de um desligamento forçado (o controlador RAID deve ser configurado para forçar a desativação. Problema potencial se o firmware ignorar Veja unidades não testadas :)

  • Ocasionalmente, a unidade pode executar rotinas de manutenção interna que podem fazer com que ela se comporte lentamente, ou responda com atraso suficiente, para fazer com que o controlador RAID pense que falhou (relacionado ao TLER)

  • O SATA em geral, como geralmente é implementado, possui menos salvaguardas em comparação com o SAS contra uma unidade com componentes eletrônicos completamente desligados ou pendurados, pendurando tudo no controlador (não é um risco teórico, determinadas combinações de marcas de disco e controlador adoram esse modo de falha).

rackandboneman
fonte
1
Esses parecem motivos para usar unidades qualificadas com a pilha de aplicativos e hardware do servidor, mas não especificamente com 10k vs 7k2 rpm.
poolie
1
A questão pode ser facilmente entendida como "um disco 7.2k não corporativo, ou um designado para uso corporativo de unidade única, pode ser usado no aplicativo?". E "com segurança" normalmente implicaria enfrentar os riscos de perda de dados ou tempo de inatividade relacionado a falhas.
rackandboneman
4

ENORME questão:

(Pode ser um pouquinho fora de tópico - mas eu sou importante! )

Quando você lida com SSDs - (como costuma ser o caso, ou pode ser o caso ou a tentação) - muitos SSDs têm um problema desagradável, onde nem sempre podem se recuperar de quedas de energia espontâneas!

Este é um pequeno problema com HDDs. Os HDDs geralmente têm capacitância suficiente para alimentar sua lógica e momento angular suficiente para transportar os pratos ao terminar de escrever um bloco de 512 bytes - no caso de perda de energia durante a gravação. Uma vez em uma rara enquanto, isso vai não trabalho, resultando em algo chamado "write rasgada" - onde um único bloco pode ser parcialmente escrito. A gravação parcial (embora rara) causará uma falha de soma de verificação no bloco - ou seja, esse bloco individual será ruim. Geralmente, isso pode ser detectado como ruim pelo próprio circuito do disco e corrigido pelo controlador RAID upstream.

SSDs são um animal diferente. Eles geralmente implementam algo chamado "desgaste de nivelamento" - onde eles não apenas escrevem o "bloco X" em um local físico para o "bloco X" como um HDD. Em vez disso, eles tentam gravar em locais diferentes na mídia flash - e tentam agregar ou combinar gravações (usando um pouco de buffer). Escrever nos diferentes lugares envolve manter um "mapa" de onde as coisas são escritas, que também são armazenadas em buffer e gravadas de maneira a reduzir o nivelamento do desgaste. Parte do nivelamento de desgaste pode envolver a movimentação de dados que já estão no dispositivo e nem foram gravados recentemente.

Esse problema é que, quando o SSD perde energia - possui muitos dados na memória (não descarregados), possui alguns dados que foram gravados em locais diferentes / alterados - e possui esses mapas em sua própria memória, que precisam ser liberado para entender a estrutura de todos os dados no dispositivo.

MUITOS SSDs não têm a lógica ou o circuito para poder manter seus controladores ativos e ativos por tempo suficiente na saída espontânea de energia para liberar com segurança todos esses dados para piscar antes que eles morram. Isso não significa apenas que um bloco que você escreveu agora pode estar em risco - mas outros blocos - até todos os blocos do dispositivo podem estar com problemas. Muitos dispositivos também têm problemas em que não apenas perdem todos os dados no dispositivo, mas o próprio dispositivo se torna em tijolo e inutilizável.

Isso tudo é teoria verdadeira - mas (trabalhando no setor de armazenamento) - já vimos isso acontecer muitas vezes em muitos dispositivos - inclusive em alguns de nossos próprios laptops pessoais!

Muitos fornecedores discutiram a criação de "SSDs de nível empresarial", onde os dispositivos adicionam especificamente ("super-caps") e outros circuitos para permitir uma "limpeza" limpa - mas é muito difícil encontrar qualquer dispositivo que indique especificamente como parte dele. folha de dados que possui proteção testada, explícita e suficiente de tais eventos e protegerá contra tais eventos.

Obviamente, se você comprar uma "matriz de armazenamento de ponta" de um fornecedor de primeira linha que utiliza a tecnologia flash, suas unidades - ou o sistema como um todo - foi projetado com tudo isso em consideração. Verifique se tem!

O problema com relação à sua pergunta é: Se você possui uma matriz RAID - e vários dos discos são SSDs "ruins" sem essa proteção - se você receber uma "falta de energia espontânea" -, poderá perder TODOS os dados em vários discos tornando impossível a reconstrução de RAID.

"Mas eu uso um no-break"

Também é geralmente importante observar que a "falta de energia espontânea" pode incluir situações como BSOD e bloqueios / travamentos / pane no kernel - onde você não tem opção de recuperação para puxar o plugue do sistema.

Brad
fonte
2
É raro alguém puxar o plugue de um sistema travado (a menos que esteja danificando o disco) com rapidez suficiente para não permitir que discos de qualquer tipo liberem seus caches. E, nesse caso, os HDDs convencionais com caches habilitados podem produzir a mesma bagunça, embora com menos chance de bloquear, mas ainda com uma chance significativa de corrupção de dados - Reiserfs, NTFS inicial, eles tendem a acabar sendo prejudicados por lidar com dados de diário sendo escrito para uma atividade que realmente não aconteceu (ou vice-versa, ambos provavelmente com descarga de cache fora de ordem) MUITO mal.
precisa saber é o seguinte
2
Um SSD projetado corretamente não corromperá ou perderá dados, caso os dados não tenham sido totalmente liberados. Como o local físico de cada setor lógico pode mudar a cada gravação, a versão anterior dos dados em cada setor lógico ainda deve existir caso a atualização ainda não tenha sido liberada. Você ainda pode perder dados se o firmware sofrer falhas de design ou erros de implementação.
kasperd
1
Os SSDs do consumidor @kasperd são vendidos com base na velocidade, comprometendo-se a fazer isso. Embora seja possível manter a integridade da maneira sugerida, o fato é que a maioria das unidades de fabricantes (pelo menos no nível do consumidor) simplesmente não. Além disso, quando atingem a EoL, a maioria não falha normalmente.
precisa saber é o seguinte
As histórias de @JamesRyan sobre fabricantes enganando com a liberação de dados para armazenamento persistente, a fim de obter melhores resultados em algumas métricas de desempenho, não são novas. Ouvimos falar disso também nos dias de discos rígidos. Não é porque é isso que os consumidores querem. Isso ocorre porque os consumidores veem apenas algumas das métricas e não sabem como o fabricante trapaceou em outras áreas para alcançá-la. Às vezes, os fabricantes evitam trapacear, às vezes não. (Eu tenho certeza que alguém poderia chegar a uma analogia do carro inspirado por notícias recentes.)
kasperd
2
SSDs são um animal diferente. Eles possuem tabelas de mapas que informam ONDE estão os dados. Eles estão movendo e realocando dados e ajustando esses mapas. Eles precisam unir suas gravações (ou seja, adiá-las, agrupá-las e gravá-las mais tarde) para evitar a amplificação da gravação. Os mapas em si não podem ser gravados de forma agressiva e precisam seguir essas mesmas regras. Nós podemos sobre "projetos adequados" e falhas - mas os SSDs não são "simples" como os sistemas de arquivos registrados (que não são simples). Estou falando de muita experiência, testes, especificações e posso ou não ter falado com um fabricante - ou dois - ou três em meu trabalho.
Brad