Este artigo mostra que o SDRAM DDR4 possui aproximadamente 8x mais SDRAM DDR1 de largura de banda. Mas o tempo entre a configuração do endereço da coluna e a disponibilidade dos dados diminuiu apenas 10% (13,5ns). Uma pesquisa rápida mostra que o tempo de acesso do mais rápido assíncrono. SRAM (18 anos) é 7ns. Por que o tempo de acesso à SDRAM diminuiu tão lentamente? A razão é econômica, tecnológica ou fundamental?
22
Respostas:
É porque é mais fácil e barato aumentar a largura de banda da DRAM do que diminuir a latência. Para obter os dados de uma linha aberta de ram, é necessária uma quantidade não trivial de trabalho.
O endereço da coluna precisa ser decodificado, os muxes que selecionam quais linhas acessar precisam ser direcionados e os dados precisam passar pelo chip para os buffers de saída. Isso leva um pouco de tempo, especialmente considerando que os chips SDRAM são fabricados em um processo personalizado para altas densidades de ram e não altas velocidades lógicas. Para aumentar a largura de banda, usando DDR (1,2,3 ou 4), a maior parte da lógica pode ser ampliada ou em pipeline, e pode operar na mesma velocidade da geração anterior. A única coisa que precisa ser mais rápida é o driver de E / S para os pinos DDR.
Por outro lado, para diminuir a latência, toda a operação precisa ser acelerada, o que é muito mais difícil. Provavelmente, partes do carneiro precisariam ser feitas em um processo semelhante ao das CPUs de alta velocidade, aumentando o custo substancialmente (o processo de alta velocidade é mais caro, mais cada chip precisa passar por 2 processos diferentes).
Se você comparar caches de CPU com RAM e disco rígido / SSD, há uma relação inversa entre armazenamento grande e armazenamento rápido. Um L1 $ é muito rápido, mas pode conter apenas entre 32 e 256kB de dados. A razão de ser tão rápido é porque é pequeno:
À medida que você sobe na hierarquia, cada opção de armazenamento fica maior em capacidade, mas também em área e mais distante do dispositivo que o utiliza, o que significa que o dispositivo deve ficar mais lento.
fonte
C_Elegans fornece uma parte da resposta - é difícil diminuir a latência geral de um ciclo de memória.
A outra parte da resposta é que, nos modernos sistemas de memória hierárquica (vários níveis de armazenamento em cache), a largura de banda da memória tem uma influência muito mais forte no desempenho geral do sistema do que a latência da memória , e é aí que todos os esforços de desenvolvimento mais recentes foram focados.
Isso é verdade tanto na computação geral, onde muitos processos / threads estão sendo executados em paralelo quanto nos sistemas incorporados. Por exemplo, no trabalho de vídeo em HD que faço, não ligo para latências da ordem de milissegundos, mas preciso de vários gigabytes / segundo de largura de banda.
fonte
Não tenho muitas idéias, mas espero que seja um pouco de tudo.
Econômico
Para a maioria dos computadores / telefones, a velocidade é mais que suficiente. Para armazenamento mais rápido de dados, o SSD foi desenvolvido. As pessoas podem usar vídeo / música e outras tarefas intensivas em velocidade (quase) em tempo real. Portanto, não há tanta necessidade de mais velocidade (exceto para aplicações específicas, como previsão do tempo, etc.).
Outra razão é processar uma velocidade de RAM muito alta, são necessárias CPUs que são rápidas. E isso vem com muito uso de energia. Uma vez que a tendência de usá-los em dispositivos de bateria (como telefones celulares), impede o uso de RAM (e CPUs) muito rápidas, portanto, também não é economicamente útil usá-los.
Técnico
Pelo tamanho decrescente dos chips / ICs (nível de nm agora), a velocidade aumenta, mas não significativamente. É mais frequentemente usado para aumentar a quantidade de RAM, o que é necessário com mais força (também uma razão econômica).
Fundamental
Como um exemplo (ambos são circuitos): a maneira mais fácil de obter mais velocidade (usada pelo SSD) é apenas distribuir a carga por vários componentes, assim as velocidades de 'processamento' também aumentam. Compare usando 8 cartões USB lendo ao mesmo tempo e combinando os resultados, em vez de ler dados de um cartão USB um após o outro (leva 8 vezes mais).
fonte