Por que não existem microprocessadores de 256 ou 512 bits?

95

Em um microprocessador de 8 bits, seu barramento de dados consiste em 8 linhas de dados. Em um microprocessador de 16 bits, seu barramento de dados consiste em 16 linhas de dados e assim por diante.

Por que não existe um microprocessador de 256 bits nem um microprocessador de 512 bits? Por que eles simplesmente não aumentam o número de linhas de dados e criam um microprocessador de 256 bits ou um microprocessador de 512 bits?

Qual é o obstáculo que impede a criação de um microprocessador de 256 bits ou microprocessador de 512 bits?

Michael harris
fonte
20
Mesmo o marketing não pode continuar aumentando um número para sempre.
Olin Lathrop
82
Por que ainda não existe um barbeador de 256 lâminas?
Rocketmagnet
11
@OlinLathrop Confira o Gillete Fusion Power , com 5 lâminas e uma bateria!
Brendan Long
6
A resposta é a mesma da pergunta: Temos carros de 1 e 2 e 3 e 4 e 5 e 6 e 8 e 12 e 16 cilindros. Por que não temos carros de 32 e 64 e 128 cilindros?
Russell McMahon
13
@ Russell: Porque haveria uma escassez global de cilindros.
Olin Lathrop

Respostas:

110

Pense nisso. O que exatamente você imagina ser um processador de "256 bits"? O que torna o bit-ness de um processador em primeiro lugar?

Acho que, se nenhuma qualificação adicional for feita, o bit-ness de um processador se refere à largura da ALU. Essa é a largura do número binário que ele pode manipular nativamente em uma única operação. Um processador de "32 bits" pode, portanto, operar diretamente em valores de até 32 bits de largura em instruções únicas. Portanto, seu processador de 256 bits conteria uma ALU muito grande capaz de adicionar, subtrair, ORing, ANDing, etc, números de 256 bits em operações únicas. Porque você quer isso? Que problema faz com que a ALU grande e cara valha a pena ter e pagar, mesmo nos casos em que o processador conta apenas 100 iterações de um loop e similares?

O ponto é que você precisa pagar pela ALU ampla, se a usa muito ou apenas uma pequena fração de seus recursos. Para justificar uma ALU de 256 bits, você teria que encontrar um problema suficientemente importante que possa realmente se beneficiar da manipulação de palavras de 256 bits em instruções únicas. Embora você possa provavelmente inventar alguns exemplos, não existem problemas suficientes que façam com que os fabricantes sintam que receberão um retorno do investimento significativo necessário para produzir esse chip. Se houver problemas de nicho, mas importantes (bem financiados) que podem realmente se beneficiar de uma ALU ampla, veríamos processadores muito direcionados e caros para esse aplicativo. Seu preço, no entanto, impediria o amplo uso fora do aplicativo restrito para o qual foi projetado. Por exemplo, se 256 bits possibilitarem certas aplicações de criptografia para os militares, processadores especializados de 256 bits, custando de 100 a 1000 dólares cada, provavelmente surgiriam. Você não colocaria um desses em uma torradeira, uma fonte de alimentação ou até mesmo um carro.

Também devo deixar claro que a ampla ALU não apenas torna a ALU mais cara, mas também outras partes do chip. Uma ALU de 256 bits também significa que deve haver caminhos de dados de 256 bits. Só isso exigiria muita área de silício. Esses dados têm que vir de algum lugar e ir para algum lugar; portanto, é necessário que haja registros, cache, outra memória etc. para que a ALU ampla seja usada com eficiência.

Outro ponto é que você pode fazer qualquer aritmética de largura em qualquer processador de largura. Você pode adicionar uma palavra de memória de 32 bits em outra palavra de memória de 32 bits em um PIC 18 em 8 instruções, enquanto que você pode fazê-lo na mesma arquitetura dimensionada para 32 bits em apenas 2 instruções. O ponto é que uma ALU estreita não impede você de executar cálculos amplos, apenas que os cálculos amplos levarão mais tempo. Portanto, é uma questão de velocidade, não de capacidade. Se você observar o espectro de aplicativos que precisam usar números específicos de largura, verá muito poucos exigirem palavras de 256 bits. A despesa de acelerar apenas alguns aplicativos com hardware que não ajuda os outros simplesmente não vale a pena e não faz um bom investimento para o desenvolvimento de produtos.

Olin Lathrop
fonte
9
Eu odeio dizer isso, mas eu discordo aqui. Deixe-me inventar um exemplo: renderização gráfica para jogos de vídeo. É um pequeno mercado que você já deve ter ouvido valer 10 bilhões de dólares.
Rocketmagnet
39
@Rocket: Primeiro, o OP perguntou sobre um microcprocessador , não um processador gráfico. Segundo, a renderização gráfica não requer palavras particularmente amplas. Muitas operações menores podem ser feitas em paralelo, mas eu não chamaria 8 núcleos de CPU em paralelo, cada um trabalhando em dados de 32 bits como um processador de "256 bits". Você se refere ao seu PC quad core como um processador de "256 bits" apenas porque cada núcleo pode operar em dados de 64 bits nativamente? Eu acho que é um uso indevido do termo, e mesmo o marketing da Intel não parece oferecer vários núcleos dessa maneira.
Olin Lathrop
30
@Rocket: SIMD é um tipo diferente de paralelismo, mas eu ainda não chamaria de ALU ampla, apenas um monte de pequenas ALUs correm firmemente em paralelo. Você não pode adicionar um acréscimo de 256 bits com todos os carregamentos, por exemplo, em um processador SIMD. Paralelismo não é o mesmo que uma ULA mais ampla. Você parece estar se esforçando para ser contrário. Talvez você possa argumentar sobre o que é paralelo versus mais amplo, mas usar definições não convencionais e depois afirmar que outras interpretações são surpreendentemente erradas é apenas se envolver em um concurso de mijar.
Olin Lathrop
15
@Rocket: Só porque a CPU pode trabalhar em 256 bits por vez, executando várias operações em paralelo, não a torna uma CPU de "256 bits". Isso implicaria que ele pode realmente trabalhar diretamente em números largos de 256 bits, o que não pode. Como você mesmo disse, não há transporte entre as unidades ALU paralelas separadas, o que a torna não uma ALU de 256 bits. Você parece ter uma definição incomum do que significa o número de bits de uma CPU. Não é o número de bits que ele pode processar de uma só vez, mas a largura de uma palavra que ele pode processar como um todo.
Olin Lathrop
19
Quando eu estava na escola, fomos ensinados que o pessoal de software media a frequência em termos de largura "lógica" do conjunto de instruções, e que o pessoal de hardware media a frequência em termos de largura do barramento. Portanto, o 8088 era um processador de 16 bits para pessoas de software e um processador de 8 bits para pessoas de hardware. O 8086 foi de 16 bits para todos. É claro que o pessoal de marketing pegaria o maior número possível, então esperamos que eles não leiam esse tópico de comentários e comecem a comercializar CPUs de 512 bits! :-)
Mark Harrison
34

Bem, eu não sei sobre 256 ou 512 bits, mas ouvi falar de um processador de 1024 bits (não consigo encontrá-lo agora). A palavra é VLIW , para Very Long Instruction Word . Então esse é o barramento de instruções, não a largura do barramento de dados. As vantagens são que você pode implementar o ILP (Instruction Level Parallelism) em larga escala.

Meu primeiro encontro com o ILP deve ter sido há 20 anos com os DSPs da Motorola, que tinham instruções para executar um MAC (multiplicar e acumular) ao mover dados de e para a memória, para que você pudesse executar um novo MAC na próxima instrução, sem perder tempo. tempo entre dois MACs para mover dados.
Hoje também existem controladores de uso geral que oferecem essa opção. O VLIW aplica isso em uma escala muito maior.

Como a largura do barramento de dados não será tão ampla, você pode ter várias instruções e constantes em uma instrução. A razão pela qual o barramento de dados não segue a tendência é que é bastante inútil; um registro de dados de 64 bits pode representar um número de 20 dígitos decimais. Quando foi a última vez que você precisou de 20 dígitos de precisão? Para a maioria dos aplicativos 10 = .20

Leitura adicional
Arquitetura VLIW

stevenvh
fonte
a maioria dos cálculos financeiros :( correndo para esse problema agora
im tão confusa
Eu pensei que o x86 era uma CPU VLIW. ;-)
Macke
1
@MarcusLindblom Somente se por VLIW você quer dizer Palavras de Instrução de Comprimento Variável. ;-)
um CVn
3
@ AK4749 Nesse caso, é provável que suas previsões sejam negadas pelos bancos que lidam com suas transações usando regras contábeis "reais". Ou seja, se você executar um plano com base nessas regras, ele não fornecerá os resultados esperados porque os bancos reais usarão as regras contábeis reais, e não a precisão nano-centena. E, claro, porque os mercados são incertos. Portanto, se um erro de 1 centavo no início fornecer um erro de US $ 1 trilhão na saída, esse US $ 1 trilhão é apenas um efeito de simulação, e não algo que seus clientes devem usar para fazer planos.
The Photon
1
Obviamente, eles nunca usariam previsões de uma década como base para as decisões atuais, mesmo eu como programador não seria tão tolo. No entanto, (e para ser claro, resolvemos o problema de erro divergente para que ele não exista), os maiores clientes de fato exigem esses tipos de recursos para quaisquer fins nefastos que eles escolham não divulgar aos seus fornecedores. Além disso, tendo trabalhado no espaço financeiro para um par de anos, posso dizer-lhe que as empresas financeiras realmente FAZER usar cálculos mais elevados de precisão (1/2)
im tão confusa
28

A "testemunha" de um microprocessador é geralmente definida em termos de tamanho dos registros de uso geral. O tamanho determina quantos números grandes um processador pode manipular nativamente e quanta memória ele pode acessar. Os números de 64 bits são suficientes para quase todos os algoritmos e a quantidade de memória endereçável (16 milhões de terabytes) é suficiente por algum tempo. Simplesmente não há vantagem em aumentar o tamanho dos registros de uso geral. Por outro lado, a área de unidades lógicas aritméticas (ALU) usada para executar operações nos registradores é escalada com o quadrado da quantidade de bits. Uma ULA de 256 bits seria 16x maior e significativamente mais lenta.

Por outro lado, faz sentido ampliar o processador para possibilitar muitas operações menores ao mesmo tempo. Na verdade, os processadores Sandy Bridge e Ivy Bridge da Intel fazem exatamente isso, eles têm registros SIMD de 256 bits e podem realizar duas operações aritméticas e uma operação de memória por ciclo neles. Portanto, alguém poderia justificar chamá-los de processadores de 256 bits, ou mesmo de 768 bits, se fosse um profissional de marketing furtivo que quisesse modificar termos usados ​​regularmente.

Formigas Aasma
fonte
Essa é uma arquitetura impressionante.
Trygve Laugstøl 4/10/12
6
+1 para "comerciante sorrateiro que deseja dobrar termos usados ​​regularmente".
Dan Neely
14

Primeiramente, o tamanho do bit de um processador geralmente é determinado pela arquitetura abstrata que é visível para o programador da linguagem de máquina, não pelos detalhes da implementação, como o tamanho do barramento de dados.

Por exemplo, o Motorola 68000 é um processador de 32 bits. Possui registradores de dados de 32 bits e registradores de endereço de 32 bits. Agora, a primeira versão dessa família de arquitetura expõe apenas 24 bits de linhas de endereço. Além disso, existem variantes que possuem apenas um barramento de dados de 8 bits (portanto, operações de memória de 32 bits são executadas pelo processador como vários ciclos de acesso).

Agora, sobre a questão, por que não ir para 256 e 512. Os processadores manipulam "nativamente" vários tipos de tipos de dados; portanto, é útil examinar o que 256 ou 512 bits significa para cada um desses tipos de dados individualmente. Temos números inteiros, ponteiros e tipos de ponto flutuante.

  1. Inteiros: os programas obtêm muita quilometragem de números inteiros de 32 e 64 bits. Se 64 bits é uma limitação, a correção para isso é ter números inteiros de bignum implementados por software. Linguagens de alto nível podem implementar tipos inteiros, de modo que as operações alternem suavemente entre "fixnums" e "bignums". É claro que você sofre um impacto no desempenho com bignum, mas precisa considerar isso no quadro geral: quantas das operações em um programa são operações bignum. Os números de 256 ou 512 bits não eliminam a necessidade de bignums, eles apenas aumentam o espaço livre antes que tenhamos que mudar para bignums. Se você deseja manipular chaves públicas de 2048 bits, números inteiros de 512 bits não serão suficientes (mas um bignum com dígitos de 512 bits pode ser rápido).

  2. Ponteiros: os ponteiros mais amplos permitem duas coisas: espaços de endereço mais amplos e metadados adicionais armazenados em um ponteiro. Atualmente, os espaços de endereço são virtuais e podem crescer mesmo que as memórias não cresçam. Foi proposto que, se você possui ponteiros de 128 bits, o espaço de endereço é tão vasto que é possível colocar todos os processos de espaço do usuário de um sistema operacional e o kernel, em locais aleatórios em um único espaço desprotegido, e é improvável colidir. Em vez de simplesmente criar um espaço de endereço maior, ponteiros mais pesados ​​podem ser usados ​​para transportar bits que não são bits de endereço, como informações sobre o objeto referente (tipo, tamanho e outras informações) ou informações relacionadas à segurança. Provavelmente existe alguma "gordura ideal" para esse tipo de coisa, e se eu fosse adivinhar, ainda a limitaria em 128 bits. Não parece fazer sentido ir para ponteiros de 256 bits, não importa para 512. Os ponteiros mais gordos têm uma desvantagem: incham todas as estruturas de dados que contêm ponteiros. E, geralmente, você deseja que os ponteiros tenham o mesmo tamanho, caso contrário, você precisa de complicações na arquitetura do conjunto de instruções (como segmentos de memória), em que você tem ponteiros completos (descritor de segmento e deslocamento) ou apenas ponteiros locais (deslocamento em algum segmento compreendido) .

  3. Tipos de ponto flutuante: mais bits nos números de ponto flutuante significam mais precisão. Eu diria que os tipos de ponto flutuante se beneficiam mais de uma representação mais ampla. Um tipo flutuante de 256 ou 512 bits melhorará a estabilidade do código numérico e a qualidade dos cálculos científicos que exigem muitas iterações e acumulará erros ao longo do caminho. Precisão em ponto flutuante não é a mesma que precisão em números inteiros: não podemos separar o tipo de ponto flutuante em intervalos como fixnums versus bignums. Mais precisão no ponto flutuante afeta a qualidade de todos os números inexatos, sejam eles próximos de zero ou de grande magnitude. Mais bits nos expoentes de ponto flutuante também podem estender amplamente o intervalo de números de ponto flutuante e muito mais rápido do que adicionar bits a um número inteiro bignum.

Por esses motivos, suspeito que a tendência futura predominante será o aumento da largura dos números de ponto flutuante do hardware, não necessariamente seguido pelo aumento da largura dos ponteiros e números inteiros.

Lembre-se de que os números de ponto flutuante já estavam à frente dos outros tipos no passado. Por exemplo, durante algum tempo, tivemos um predomínio de processadores de 32 bits com suporte a flutuadores duplos IEEE de 64 bits. Isso ocorre porque, embora você possa fazer muito com ponteiros e números inteiros de 32 bits, as flutuações de 32 bits são muito limitadas para qualquer trabalho numérico sério.

Um recurso muito, muito útil, que seria interessante ver emergir em representações de ponto flutuante, seria alguns bits extras para uma tag de tipo. A implementação de tipos de ponto flutuante em linguagens dinâmicas de alto nível (nas quais os objetos têm tipo, mas os locais de armazenamento mantêm valores de qualquer tipo) é um problema, pois os bits extras podem ser encontrados em ponteiros e objetos parecidos com números inteiros para colocar partes de um objeto. identificação de marca de tipo, é difícil fazer isso com números de ponto flutuante. Então, o que muitas vezes acaba acontecendo é que os números de ponto flutuante são alocados em heap. Alguns esquemas roubam bits da mantissa; portanto, os tipos de ponto flutuante nesse idioma perdem precisão em comparação com os flutuadores em outros idiomas na mesma máquina.

Kaz
fonte
Boa descrição. A propósito, os processadores x86 comuns têm um ponto flutuante de 80 bits há muito tempo, desde a primeira unidade de ponto flutuante de hardware para eles, se bem me lembro. Os 80 bits são internos à FPU e, geralmente, 32 ou 64 bits são exportados.
Olin Lathrop
Tecnicamente, já está feito. Google "nan boxing" ou "freira boxe". O mais promissor são as tags de tipo de hardware nos ARMs de 64 bits, mas infelizmente isso não será em breve.
whitequark
3
Foi possível acessar a versão 80 diretamente. Nos anos 90, quando eu estava aprendendo a programar no TurboPascal, havia um tipo de flutuação de 80 bits.
9788 Dan Neely
@ DanNeely: Às vezes, pensei que os processadores se beneficiariam dos tipos de ponto flutuante com coordenadas 3d, combinando três números de 80 bits em um pedaço de 256 bits ou três números de 42 bits em um pedaço de 128 bits ou três Números de 21 bits em um pedaço de 64 bits. Eu me pergunto o quão difícil isso seria implementar, e quão útil pode acabar sendo?
Supercat
@supercat GPGU Wikipedia: A maioria das operações na GPU [NVidia] opera de maneira vetorizada: uma operação pode ser executada com até quatro valores ao mesmo tempo. Por exemplo, se uma cor <R1, G1, B1> for modulada por outra cor <R2, G2, B2>, a GPU poderá produzir a cor resultante <R1 * R2, G1 * G2, B1 * B2> em uma Operação.
Kaz
9

Na verdade, não ajuda você a fazer algo útil. Os números de 64 bits fornecem precisão suficiente para quase todos os propósitos (os sistemas Intel têm ponto flutuante de 80 bits), mas as linhas extras aumentam o custo e o consumo de energia enquanto causam um pequeno impacto negativo na velocidade do relógio.

Historicamente, as CPUs usam o número mínimo de bits que faz sentido prático para a finalidade pretendida. Com os avanços da tecnologia, barramentos e ALUs mais amplos tornaram-se possíveis, daí o aumento no tamanho do barramento para atender a uma maior aplicabilidade:

  • 4 bits: o suficiente para um dígito, portanto prático para calculadoras (caixas de papelão tipo BCD), caixas registradoras etc. (que é uma área bastante limitada)
  • 8 bits: suficiente para um caractere (ASCII), prático para sistemas de processamento de texto (que é uma área MUITO ampla), também para som de baixa qualidade
  • 16 bits: quando os bits de 16 bits eram populares, 2 ^ 16 endereços de memória eram uma quantidade razoável (pelo menos, muito mais razoável que 2 ^ 8 ou 2 ^ 32). 16 bits produz uma qualidade de áudio bastante aceitável, e a maioria dos conversores A / D produz menos de 16 bits de resultado, portanto, o cálculo com esses valores em 16 bits faz sentido
  • 32 bits: 32 bits se ajustam à precisão da maioria (mas não de todas) das quantidades medidas por humanos e, a menos que você esteja lidando com bancos de dados grandes, 2 ^ 32 endereços eram adequados para a maioria dos propósitos práticos.
  • 64 bits: ter mais de 2 ^ 32 bytes de memória agora prático.
  • 128 bits: neste momento, pouca vantagem sobre 32, exceto em criptografia. Quando esperamos mais de 2 ^ 64 bytes em um disco rígido? provavelmente não em breve.
pjc50
fonte
1
“640K deve ser suficiente para qualquer um.” -Bill Gates (1981)
jippie
6
@ippie - Gates nunca disse isso.
Rocketmagnet
1
Na verdade, a maioria das CPUs de 8 bits conseguiu endereçar 2 ^ 16 bytes de memória e 16 bitters 2 ^ 32, o 80386 (32 bits) poderia, em teoria, também endereçar 2 ^ 64 bytes (4GB) de memória, o que seria bastante inútil naqueles dias, enfim ...
Axel
1
@Axel - o 8086 de 16 bits só podia endereçar 2 bytes de memória e, quando descobriram que isso não era suficiente, tiveram que criar coisas horríveis, como gerenciadores de memória estendida e expandida. 20
stevenvh
3
@ Michael - é o de todos os tempos, e eu vi isso ao longo de toda a minha carreira: existem muito poucos gerentes de produto realmente visionários por aí. Anedota: no início dos anos 70, em uma palestra de Robert Noyce sobre o futuro dos microprocessadores, ele prevê a miniaturização atual, e alguém da platéia diz: "Droga, eu não gostaria de perder um computador inteiro em um buraco no chão". Sobre o qual Noyce respondeu com desprezo: "Você não entende nada disso. Você não se importa com o que perdeu; terá milhares de outros". Isso foi no início dos anos 70. Robert Noyce era um visionário.
Stevenvh #
9

Na verdade, esses processadores existem e são comuns, dependendo de como você define a testemunha. Você quase certamente está usando um agora. Como explicou Olin, não há muito uso para números de 256 bits, mas e os números de 4 x 32 bits? E se a ALU pudesse adicionar 4 pares de números de 32 bits ao mesmo tempo. Tais ALUs (que eu conheço) foram implementadas pela primeira vez em supercomputadores de vetores na década de 1970. A primeira vez que possuo um computador assim foi quando tive um dos Intel Pentiums com MMX.

Intel MMX guy

Lembra daqueles caras?

Os chips MMX tinham um conjunto de instruções de Instrução Única - Dados Múltiplos ( SIMD ), permitindo adicionar 1 × 64 bits, 2 × 32 bits, 4 × 16 bits ou 8 × 8 bits.

Mas isso não é nada. Uma placa gráfica moderna possui uma GPU (que costumava representar Unidade de processamento gráfico, mas agora significa Unidade de processamento geral). Geralmente, são implementações SIMD amplas, capazes de ramificar, carregar e armazenar em 128 ou 256 bits por vez. A microarquitetura do protótipo Larrabee da Intel inclui mais de dois registros SIMD de 512 bits em cada um de seus núcleos.

GPU SIMD

Observe que o SIMD não deve ser confundido com o multi-core. Cada núcleo de uma CPU terá sua própria ALU ampla, capaz de adicionar um conjunto de números inteiros.

Rocketmagnet
fonte
1
"Par de 1 × 16 bits, pares de 2 × 32 bits, pares de 4 × 16 bits ou pares de 8 × 8 bits" Tem certeza de que acertou essa parte?
um CVn
4
À primeira vista, que parecia um Kraft Individual com um logotipo Intel sobre ele
Chris Laplante
4
Variáveis ​​de 4x32 bits ainda são apenas 32 bits. O bit-ness é o número inteiro máximo individual em que a ALU pode operar. Fazer isso muitas vezes em paralelo não aumenta a largura de bit. -1
Connor Wolf
3

Porque ainda não precisamos disso.

Normalmente, a testemunha (que eu definiria como o número de bits em um registro) se traduz mais ou menos diretamente na quantidade de memória endereçável. Obviamente, isso é simplificado, pois, dependendo do processador, pode haver registros com o dobro da duração da testemunha ou existem técnicas para contornar essas limitações de memória (alguém por aí se lembrando de fazer programação em janelas de 16 bits?).

Axel
fonte
3

"Por que eles simplesmente não aumentam o número de linhas de dados e criam um arquivo de 256 bits"

Na verdade, todos os processadores Intel que se encaixam no soquete LGA-2011 possuem 256 pinos de dados, conectando-se a 256 linhas de dados na placa-mãe que levam à DRAM. Eu ficaria um pouco surpreso se o laptop ou desktop mais recente usado não tivesse pelo menos 256 linhas de dados. Posso perguntar de onde você tirou essa idéia equivocada de que eles "não ... simplesmente aumentam o número de linhas de dados"?

A folha de dados do soquete LGA-2011 , seção 6.1, indica que essas CPUs possuem 256 pinos de dados e 76 pinos de endereço (endereço do banco + endereço da memória).

davidcary
fonte
-1

porque não há aplicativo que precise ou tenha a possibilidade de representar dados usando mais de 128 bits de uma vez.

e você sabe, os processadores multimídia e placas gráficas chegarão muito antes dos cpu das placas-mãe, apenas porque com foto / vídeo faz sentido usar comprimentos de dados tão grandes para serem processados ​​de uma só vez.

Paulo
fonte
-4

Um sistema de computador é, em seu significado, uma máquina de computação, que requer algumas entradas e fornece algumas saídas. Temos que satisfazer o computador nessas linhas; portanto, os desenvolvedores passaram a ter uma referência por ter três barramentos, nomeadamente barramento de endereço, barramento de dados e barramento de controle. 1) O Bus de Endereço busca / Selecione um Endereço específico na Memória, para Operações de Leitura / Gravação. 2) O barramento de dados busca os dados Apresente esses dados para / do processador e da memória para fins de processamento / armazenamento. 3) O barramento de controle cria um protocolo de controle de interface e solicita que o sistema o respeite.

Isso é necessário para fazer alguma computação útil para um usuário / servidor / cliente. Em geral, o desempenho (velocidade de conclusão da tarefa, menos falhas, etc.) depende da limpeza dos gargalos no sistema. ou seja, se a CPU puder processar a uma taxa muito maior que a velocidade de transferência de uma unidade de disco rígido, o gargalo da garrafa ocorrerá no disco rígido. Da mesma forma, precisamos ter uma velocidade de processamento correta para determinadas velocidades de dados e largura de código.

Desde o início, devido a vários motivos, como complexidade de H / W, custo, requisito, algoritmos efetivos e o principal motivo do escopo do mercado, os principais obstáculos para a produção de alta largura de barramento de dados, conforme mencionado pelo anfitrião da pergunta, digamos 256 bits ou 512 bits. Isso é possível! Mas o requisito ainda não está presente, o escopo do mercado ainda não está visível com as necessidades atuais e com a ausência de elogios ao Suporte de Software.

O processador de 256 bits significa a largura do barramento de dados que esse processador específico pode manipular ou a ALU pode processar em uma única execução. Começamos a formar 4 bits, 8,16,32 e atualmente 64 e até 128 bits, que são os atuais produtos de escopo de mercado.

Portanto, antes de fazer essas perguntas, você sempre deve ver a demanda do lado do mercado e seu escopo. Na história, é a única maneira direta de entender os modos de vida. Se você não pode pagar, como pode comprá-lo? e se você não pode comprá-lo, como o produtor pode produzir? e se ele não pode produzir, então não existe esse produto !!

Sri Krishna
fonte
6
Substituir maiúsculas torna isso difícil de ler.
Pjc50
hmm, sim, eu preciso começar a fazer isso.
Sri Krishna
@ pjc50 Talvez ele seja da Alemanha? Oh, espere, "Pedir" e "Comprar" também são capitalizados, talvez não ...
Alex