Uma vez que esta não é uma questão de nível de pesquisa (visto que não estou em um programa de pós-graduação), decidi jogar aqui do outro site CS Q & amp; A.
Por que usamos o binário para codificar informações em bits?
Eu tenho alguma experiência em programação e hardware, e sei que 1 e 0 são a luz de uma lâmpada, etc. Mas as luzes modernas também têm um dimmer.
Por que ainda usamos 1 e 0 quando poderíamos usar a frequência ou o valor percentual da energia transferida para compactar ainda mais uma mensagem na linguagem de máquina?
Não seria mais rápido para uma CPU ou memória calcular e processar algo se obtivesse as informações mais rapidamente?
Basicamente, isso é possível? E se assim for ... Essa ideia tem algum direito sobre ela? :)
Se não for, gostaria de saber por que definitivamente isso poderia ser explicado. Obrigado :)
Respostas:
A ideia de ter vários níveis em vez de 0 e 1 foi tentada.
por exemplo, computador Ternary que tem três níveis 0,1, -1.
http://en.wikipedia.org/wiki/Ternary_computer
Esta pergunta semelhante tem uma resposta detalhada e agradável.
https://stackoverflow.com/questions/764439/why-binary-and-not-ternary-computing
fonte
Para um cálculo de mais de dois estados (verdadeiro / falso), você precisa de uma lógica de muitos valores (consulte Fuzzylogic, por exemplo, na Wikipedia https://en.wikipedia.org/wiki/Fuzzy_logic ).
Até os dias atuais, você não pode separar de forma clara três ou mais condições (verdadeiro / - / falso) em transistores de produção em massa devido a restrições técnicas, portanto os computadores precisam trabalhar com uma lógica de dois valores.
fonte
Parece-me que você está propondo um computador analógico - um que atua em uma faixa de valores e não em digitais. Eu não acho que um é inerentemente melhor que o outro, mas os casos de uso são diferentes. Além disso, conjeturo com o aparente sucesso dos computadores digitais que talvez eles sejam mais adaptáveis e úteis para a resolução de problemas genéricos do que a variedade analógica.
fonte