Todas as outras coisas são iguais, como o desempenho IOPS de uma matriz de armazenamento mudaria se alguém usasse discos maiores.
Por exemplo, considere uma matriz com discos de 10 X 100 GB.
Meça IOPS para gravações em bloco sequenciais de 256kb (ou qualquer métrica IOPS)
Vamos supor que o IOPS medido resultante seja 1000 IOPS.
Mude a matriz para uma com discos de 10 X 200 GB. Formato com a mesma configuração RAID, mesmo tamanho de bloco, etc.
Seria de esperar que o IOPS permanecesse o mesmo, aumentasse ou diminuísse? A mudança seria aproximadamente linear? ou seja, aumentar em 2X ou diminuir em 2X (como eu aumentei a capacidade do disco em 2X)
Repita essas perguntas com discos de 10 x 50 GB.
Editar: Mais Contexto
Essa pergunta resultou em uma conversa entre minha equipe do Sysadmin que não é bem versada no armazenamento de todas as coisas. (Confortável com muitos aspectos do armazenamento, mas não os detalhes do gerenciamento de uma SAN ou qualquer outra coisa). Estamos recebendo uma grande pilha de novas bandejas Netapp que têm maior capacidade de disco por disco - capacidade dupla - do que nossas bandejas existentes. Surgiu o comentário de que o IOPS das novas bandejas seria menor apenas porque os discos eram maiores. Então surgiu uma analogia do carro para explicar isso. Nenhum comentário ficou bem comigo, então eu queria passar para o The Team, ou seja, Stack-Exchange-land.
A analogia do carro era sobre dois carros, com aceleração diferente, a mesma velocidade máxima e rodando um quarto de milha. Em seguida, altere a distância para meia milha. Na verdade, não me lembro da analogia exata, mas desde que encontrei outra na interwebz que era semelhante, achei que era provavelmente uma analogia IOPS comum.
De certa forma, a resposta real à pergunta não importa muito para mim, pois não estamos usando essas informações para avaliar uma compra. Mas precisamos avaliar a melhor maneira de conectar as bandejas a um cabeçote existente e a melhor maneira de extrair agregados e volumes.
Respostas:
Para responder sua pergunta diretamente - todas as outras coisas são iguais = nenhuma mudança quando o GB muda.
Você não mede IOPS com GB. Você usa o tempo de busca e a latência.
Eu poderia reescrever tudo aqui, mas esses exemplos abaixo já fazem tudo isso e eu simplesmente repetiria:
https://ryanfrantz.com/posts/calculating-disk-iops.html
http://www.big-data-storage.co.uk/how-to-calculate-iops/
http://www.wmarow.com/strcalc/
http://www.thecloudcalculator.com/calculators/disk-raid-and-iops.html
fonte
Sei que essa é provavelmente uma pergunta hipotética ... Mas o mundo da TI realmente não funciona dessa maneira. Existem restrições realistas a serem consideradas, além de outras coisas que podem influenciar as IOPS ...
Os discos de 50 GB e 100 GB não existem mais. Pense mais: 72, 146, 300, 450, 600, 900, 1200 GB em discos corporativos e 500, 1000, 2000, 3000, 4000, 6000 GB em mídia de armazenamento em massa nearline / midline.
Há muita abstração no armazenamento moderno; armazenamento em cache do disco, armazenamento em cache do controlador, descarregamento de SSD etc. etc. que seria difícil discernir quaisquer diferenças.
Você tem diferentes fatores de forma do inversor, interfaces e velocidades de rotação a considerar. Os discos SATA têm um perfil de desempenho diferente do SAS ou SAS nearline . Os discos de 7.200 RPM se comportam de maneira diferente de 10.000 RPM ou 15.000 RPM. E a disponibilidade das várias velocidades de rotação é limitada a certas capacidades.
Layout do controlador físico. Expansores SAS, controladores RAID / SAS podem influenciar IOPS, dependendo do layout do disco, das taxas de excesso de assinaturas, independentemente de a conectividade ser interna ao servidor ou em um gabinete externo. Um grande número de discos SATA apresenta desempenho ruim nos expansores e durante condições de erro da unidade .
Parte disso pode ser influenciada pela fragmentação, capacidade usada na matriz de discos.
Já ouviu falar em traços curtos ?
Software versus hardware RAID, pré-busca, perfil adaptável ...
O que o leva a acreditar que a capacidade teria algum impacto no desempenho em primeiro lugar? Você pode fornecer mais contexto?
Editar:
Se o tipo de disco, o fator de forma, a interface e a capacidade usada forem os mesmos, não haverá diferença significativa no IOPS. Digamos que você estava passando de discos corporativos SAS de 10 GB a 600 GB corporativos. Com a mesma contagem de eixos, você não verá nenhuma diferença de desempenho ...
No entanto, se as prateleiras de disco da NetApp mencionadas empregarem backplanes SAS de 6Gbps ou 12Gbps em comparação com 3Gbps legados, você poderá ver uma alteração na taxa de transferência ao usar equipamentos mais novos.
fonte
Um lugar onde não é uma relação direta entre o tamanho do disco e IOPS está no Amazon AWS nuvem e outros "serviços nebulosos". Dois tipos de serviços da AWS ( Elastic Block Store e Relational Database Service ) fornecem IOPS mais altos para tamanhos de disco maiores.
Observe que essa é uma restrição artificial colocada pela Amazon em seus serviços. Não há motivo vinculado ao hardware para que esse seja o caso. No entanto, vi tipos de devops que não estão familiarizados com hardware não virtualizado, acreditando que essa restrição é apropriada também para sistemas de desktop e similares. O relacionamento tamanho do disco / IOPS é uma restrição de marketing na nuvem, não uma restrição de hardware.
fonte
Devo salientar que o IOPS não é uma ótima medida de velocidade nas gravações sequenciais, mas vamos em frente.
Suspeito que os tempos de busca e gravação das cabeças dos discos sejam bastante consistentes, apesar do tamanho dos discos. Há 20 anos, todos nós estamos usando discos de 60 GB com (aproximadamente - certamente não linearmente) as mesmas velocidades de leitura / gravação.
Estou fazendo um palpite, mas acho que a densidade do disco não se relaciona linearmente com o desempenho do disco.
Está bem
Provavelmente permanecem aproximadamente equivalentes entre si.
A história da mídia giratória me diz que provavelmente não há relacionamento.
Mais uma vez, aproximadamente equivalente.
Sua velocidade, em todos esses casos, vem do fato de o RAID agir como um único disco com dez cabeças de gravação, para que você possa enviar 1/10 do trabalho em paralelo a cada disco.
Embora eu não tenha números concretos para mostrar, minha experiência passada me diz que aumentar o desempenho de seus discos não é tão simples quanto obter mais capacidade.
Apesar do que o pessoal de marketing diz a você sobre inovação, antes do início dos discos baratos de estado sólido, houve pouco desenvolvimento significativo no desempenho da mídia giratória nos últimos 20 anos, presumivelmente há apenas o suficiente para você se livrar da ferrugem e com a rapidez com que conseguimos nossos modelos atuais de cabeças de disco.
fonte
O desempenho adicionado às escalas de armazenamento com cada eixo adicionado. A velocidade de rotação da unidade é o fator mais importante; portanto, adicionar uma unidade de 10k RPM proporcionará mais desempenho (em termos de IO / s em E / S aleatórias ou MB / s em E / S de fluxo contínuo) do que uma unidade de 7,2k RPM. O tamanho da unidade praticamente não tem efeito.
As pessoas dizem que as unidades pequenas vão mais rápido simplesmente porque você precisa de mais eixos por TB utilizável. Aumentar o tamanho da unidade desses eixos não diminui o desempenho, mas permitirá que você ajuste mais dados nos discos, o que pode resultar em uma maior carga de trabalho.
fonte
Se você assumir que tudo o resto é igual, as características de desempenho dos discos de maior capacidade não mudam muito. Uma unidade FC de 10K RPM FC possui características muito semelhantes, independentemente de ser de 300 GB ou 3 TB. Os pratos giram na mesma velocidade e as cabeças procuram na mesma velocidade.
Produtividade sustentada da mesma forma - não há muita diferença. Essa é a raiz de muitos problemas de desempenho, pois, em muitos casos, as pessoas compram terabytes, não compram IOPs ou MB / s.
E levará 10 vezes mais tempo para reconstruir / copiar uma unidade de 3 TB como uma unidade de 300 GB.
Como resultado, tivemos que considerar uma capacidade excedente substancial para projetos de armazenamento - os tamanhos das unidades ainda estão crescendo, mas sua capacidade de desempenho não é grande. Portanto, em pelo menos um caso, compramos ~ 400 TB de armazenamento para atender a um requisito de 100 TB, porque precisamos dos eixos.
fonte
Se você estiver girando discos (não SSD), o restante será igual, a velocidade de transferência será maior se você usar as faixas externas do disco. Isso aconteceria automaticamente se você usar um disco que é preenchido apenas parcialmente. Ao mesmo tempo, se um disco for preenchido apenas parcialmente, o movimento médio da cabeça seria menor e o número de movimentos da cabeça seria menor porque há mais dados por faixa.
Isso é verdade se você usa um único disco ou uma unidade RAID.
Agora, se você estiver comparando discos de 100 GB e 2000 GB, pode ter certeza de que tudo o resto não é igual. Mas se o mesmo fabricante oferecer unidades de 500 GB, 1 TB, 1,5 TB e 2 TB com um, dois, três e quatro pratos, então tudo o mais provavelmente será igual e 10 x 500 GB serão mais lentos que 10 x 2 TB para armazenar 4 TB de dados (não haverá diferença se você armazenar apenas 100 GB, porque as unidades de 500 GB também estarão quase vazias).
Mas para unidades RAID, você não ficará muito limitado pela velocidade de transferência, mas pela latência rotacional. Portanto, maior RPM será mais importante. E você encontrará frequentemente RPM mais alto, juntamente com menor capacidade. Por outro lado, se você optar por alta RPM / baixa capacidade, poderá também olhar para unidades SSD.
fonte