Ao especificar servidores, como (eu diria) muitos engenheiros que não são especialistas em armazenamento, geralmente jogarei com segurança (e talvez seja um escravo do marketing) padronizando em um mínimo de 10k unidades SAS (e, portanto, " empresa "- atualize com um ciclo de serviço 24x7, etc) para dados do" sistema "(geralmente SO e, às vezes, aplicativos) e reserve o uso de 7,2k unidades intermediárias / locais para armazenamento de dados que não são do sistema, onde o desempenho não é significativo fator. Isso tudo pressupõe discos de 2,5 "(SFF), pois os discos de 3,5" (LFF) são realmente relevantes apenas para requisitos de IOPs de alta capacidade e baixo.
Em situações em que não há uma quantidade enorme de dados que não sejam do sistema, geralmente os coloco nos mesmos discos / matriz que os dados do sistema, o que significa que o servidor tem apenas 10k de unidades SAS (geralmente do tipo "One Big RAID10" de configuração atualmente). Somente se o tamanho dos dados não pertencentes ao sistema for significativo, eu normalmente considero colocá-los em uma matriz separada de 7,2k discos médios / nearline para manter o custo / GB baixo.
Isso me levou a pensar: em algumas situações, esses discos de 10k na matriz RAID10 poderiam ter sido substituídos por discos de 7.2k sem consequências negativas significativas? Em outras palavras, às vezes estou superespecificando (e mantendo os fornecedores de hardware satisfeitos) aderindo a um mínimo de 10 mil discos "corporativos" ou há um bom motivo para sempre manter isso no mínimo?
Por exemplo, considere um servidor que atua como um hypervisor com duas VMs para uma empresa pequena típica (digamos, 50 usuários). A empresa possui padrões médios de E / S sem requisitos especiais. Escritório típico 9-5, de segunda a sexta, com backups em execução por algumas horas por noite. Talvez as VMs possam ser um controlador de domínio e um servidor de arquivos / impressão / aplicativo. O servidor possui uma matriz RAID10 com 6 discos para armazenar todos os dados (dados do sistema e não pertencentes ao sistema). Para meus olhos não especialistas, parece que os discos mid / nearline podem funcionar perfeitamente. Tomando os discos da HP como exemplo:
- Carga de trabalho: os discos da linha média são classificados para <40% da carga de trabalho. Como o escritório fica aberto apenas 9 horas por dia e a E / S média durante esse período provavelmente não chega nem perto do máximo, parece improvável que a carga de trabalho ultrapasse 40%. Mesmo com algumas horas de E / S intensa à noite para backups, acho que ainda estaria abaixo de 40%
- Velocidade: embora os discos tenham apenas 7,2k, o desempenho é aprimorado espalhando-o por seis discos
Então, minha pergunta: é sensato colar um mínimo de 10k de unidades SAS ou os discos de linha média / nearline de 7.2k são realmente mais que adequados em muitas situações? Em caso afirmativo, como avaliar onde está a linha e evitar ser escravo da ignorância por jogar com segurança?
Minha experiência é principalmente com servidores HP, portanto, as opções acima podem ter um pouco de inclinação da HP, mas eu diria que os princípios são relativamente independentes do fornecedor.
Respostas:
Há uma interseção interessante entre design de servidor, tecnologia de disco e economia aqui:
Veja também: Por que os discos Large Form Factor (LFF) ainda são bastante prevalentes?
A descrição acima é por que você geralmente encontra fabricantes focando em servidores 1U / 2U com compartimentos de unidade de disco de 8 a 24 polegadas e 2,5 ".
Os discos de 3,5 "destinam-se a casos de uso de alta capacidade com baixa IOPs (2 TB +). Eles são melhores para gabinetes de armazenamento externo ou armazenamento SAN à frente de algum tipo de cache. Nas velocidades corporativas de 15k RPM, elas estão disponíveis apenas até 600GB.
Os discos giratórios de 2,5 "10k RPM são para necessidades mais altas de IOPS e geralmente estão disponíveis com capacidade de até 1,8 TB.
Os discos giratórios de 2,5 "RPM de 7,2k são uma péssima escolha porque não oferecem capacidade, desempenho, longevidade nem vantagens de preço. Por exemplo, o custo de uma unidade SAS de 10GB de 900GB é muito próximo ao de um SAS de 1TB de 7.2k RPM. Dado o pequeno preço diferença, a unidade de 900 GB é a melhor compra.No exemplo de SAS de 1,8 TB de 10k versus SAS de 7.2 TB de 2.0 TB , os preços também estão muito próximos.As garantias são de 3 e 1 ano, respectivamente.
Portanto, para servidores e armazenamento interno de 2,5 ", use SSD ou 10k. Se você precisar de capacidade e tiver compartimentos de unidade de 3,5" disponíveis interna ou externamente, use 7,2k RPM.
Para os casos de uso que você descreveu, você não está configurando demais os servidores. Se eles tiverem compartimentos de unidade de 2,5 ", você realmente deveria usar SAS ou SSD de 10k. Os discos da linha média perdem desempenho, capacidade, têm uma garantia significativamente menor e não economizam muito em custos.
fonte
Existem pelo menos algumas coisas que podem causar problemas com ALGUNS tipos de unidades:
Unidades que não são destinadas a lidar com a carga de vibração de um chassi com muitas unidades (problema improvável com qualquer unidade especificada como compatível com RAID / NAS)
Firmware que não permite TLER ou precisa de reconfiguração manual demorada da unidade para habilitá-lo (idem)
Unidades que nunca foram testadas com o controlador RAID usado e podem ter erros não reconhecidos que aparecem nessa configuração
Caches de gravação de unidade interna que se comportam de maneira (a gravação física está fora de ordem ou muito atrasada) que causa muita confusão em caso de um desligamento forçado (o controlador RAID deve ser configurado para forçar a desativação. Problema potencial se o firmware ignorar Veja unidades não testadas :)
Ocasionalmente, a unidade pode executar rotinas de manutenção interna que podem fazer com que ela se comporte lentamente, ou responda com atraso suficiente, para fazer com que o controlador RAID pense que falhou (relacionado ao TLER)
O SATA em geral, como geralmente é implementado, possui menos salvaguardas em comparação com o SAS contra uma unidade com componentes eletrônicos completamente desligados ou pendurados, pendurando tudo no controlador (não é um risco teórico, determinadas combinações de marcas de disco e controlador adoram esse modo de falha).
fonte
ENORME questão:
(Pode ser um pouquinho fora de tópico - mas eu sou importante! )
Quando você lida com SSDs - (como costuma ser o caso, ou pode ser o caso ou a tentação) - muitos SSDs têm um problema desagradável, onde nem sempre podem se recuperar de quedas de energia espontâneas!
Este é um pequeno problema com HDDs. Os HDDs geralmente têm capacitância suficiente para alimentar sua lógica e momento angular suficiente para transportar os pratos ao terminar de escrever um bloco de 512 bytes - no caso de perda de energia durante a gravação. Uma vez em uma rara enquanto, isso vai não trabalho, resultando em algo chamado "write rasgada" - onde um único bloco pode ser parcialmente escrito. A gravação parcial (embora rara) causará uma falha de soma de verificação no bloco - ou seja, esse bloco individual será ruim. Geralmente, isso pode ser detectado como ruim pelo próprio circuito do disco e corrigido pelo controlador RAID upstream.
SSDs são um animal diferente. Eles geralmente implementam algo chamado "desgaste de nivelamento" - onde eles não apenas escrevem o "bloco X" em um local físico para o "bloco X" como um HDD. Em vez disso, eles tentam gravar em locais diferentes na mídia flash - e tentam agregar ou combinar gravações (usando um pouco de buffer). Escrever nos diferentes lugares envolve manter um "mapa" de onde as coisas são escritas, que também são armazenadas em buffer e gravadas de maneira a reduzir o nivelamento do desgaste. Parte do nivelamento de desgaste pode envolver a movimentação de dados que já estão no dispositivo e nem foram gravados recentemente.
Esse problema é que, quando o SSD perde energia - possui muitos dados na memória (não descarregados), possui alguns dados que foram gravados em locais diferentes / alterados - e possui esses mapas em sua própria memória, que precisam ser liberado para entender a estrutura de todos os dados no dispositivo.
MUITOS SSDs não têm a lógica ou o circuito para poder manter seus controladores ativos e ativos por tempo suficiente na saída espontânea de energia para liberar com segurança todos esses dados para piscar antes que eles morram. Isso não significa apenas que um bloco que você escreveu agora pode estar em risco - mas outros blocos - até todos os blocos do dispositivo podem estar com problemas. Muitos dispositivos também têm problemas em que não apenas perdem todos os dados no dispositivo, mas o próprio dispositivo se torna em tijolo e inutilizável.
Isso tudo é teoria verdadeira - mas (trabalhando no setor de armazenamento) - já vimos isso acontecer muitas vezes em muitos dispositivos - inclusive em alguns de nossos próprios laptops pessoais!
Muitos fornecedores discutiram a criação de "SSDs de nível empresarial", onde os dispositivos adicionam especificamente ("super-caps") e outros circuitos para permitir uma "limpeza" limpa - mas é muito difícil encontrar qualquer dispositivo que indique especificamente como parte dele. folha de dados que possui proteção testada, explícita e suficiente de tais eventos e protegerá contra tais eventos.
Obviamente, se você comprar uma "matriz de armazenamento de ponta" de um fornecedor de primeira linha que utiliza a tecnologia flash, suas unidades - ou o sistema como um todo - foi projetado com tudo isso em consideração. Verifique se tem!
O problema com relação à sua pergunta é: Se você possui uma matriz RAID - e vários dos discos são SSDs "ruins" sem essa proteção - se você receber uma "falta de energia espontânea" -, poderá perder TODOS os dados em vários discos tornando impossível a reconstrução de RAID.
Também é geralmente importante observar que a "falta de energia espontânea" pode incluir situações como BSOD e bloqueios / travamentos / pane no kernel - onde você não tem opção de recuperação para puxar o plugue do sistema.
fonte