Por que existe a discrepância no número de bytes em um kilobyte? Em alguns lugares, vi o número 1024 (2 10 ), enquanto em outros é 1000 (e a diferença se torna cada vez maior com M, G, T, etc.).
Esta não é uma discussão sobre se deve ser 1024 ou 1000 (embora você possa discuti-lo nos comentários), mas sobre onde / quando essa situação se originou e / ou se generalizou.
Até onde eu sei, os fabricantes de Linux e hardware nunca usam a variante 1024. Isso e boatos me fazem pensar que o MS-DOS tornou essa versão comum, mas quais são os fatos?
gigabyte
corretamente?Respostas:
Há muito tempo, e é detalhado aqui . Parece que você pode culpar a IBM, se alguém.
Pensando um pouco mais sobre isso, culparia os americanos como um todo, por seu flagrante desrespeito às Système international d'unités : P
fonte
Toda a computação era de baixo nível no começo. E na programação de baixo nível, o número "1000" é totalmente inútil e eles precisavam de prefixos para quantidades maiores, de modo que reutilizavam os SI. Todos sabiam disso em campo, não havia confusão. Serviu bem por 30 anos ou quem sabe.
Não é porque eles eram americanos, então eles precisavam quebrar o SI a todo custo. :-)
Não há programador que eu conheça e diga kibibyte. Eles dizem kilobyte e significam 1024 bytes. Os algoritmos estão cheios dos poderes de 2. Até hoje, "1000" é um número realmente inútil entre programadores.
Dizer kibi e mibi é muito engraçado e chama a atenção do assunto. Felizmente, entregamos para os setores de telecomunicações e armazenamento em disco :-). E escreverei kibibytes em interfaces de usuário nas quais não programadores possam lê-lo.
fonte
É correto e faz sentido para o pessoal técnico usar 1024 = 1K em muitos casos.
Para os usuários finais, normalmente é melhor dizer 1000 = 1k, porque todo mundo está acostumado ao sistema de números baseado em 10.
O problema é onde traçar a linha. Às vezes, as pessoas de marketing ou publicidade não conseguem realmente "traduzir" ou adaptar dados e idiomas técnicos aos usuários finais.
fonte
Culpa os fabricantes de semicondutores (eles nos fornecem apenas hardware binário) [1]
Melhor ainda: culpe a própria lógica (a lógica binária é apenas a lógica mais elementar).
Melhor ainda: quem devemos culpar pelo miserável sistema decimal ?
Tem muito mais falhas do que o sistema binário. Foi baseado tosse sobre o número médio de dedos na espécie humana tosse
Oooo ...
[1] Eu quero meu computador quântico de três qubit !!! Agora!
fonte
Não se deve culpar o 1024, é realmente uma coisa muito boa, pois é a razão pela qual o computador (digital) pode ser tão rápido e eficiente quanto hoje. Como o computador usa apenas o valor 2 (0,1), remove a equação e a complexidade (imprecisão) do sistema anólogo.
Seria mais complicado se disséssemos que um kilobyte é de 1000 bits porque 2 a que potência é 1000? portanto, mesmo 1 kilobyte seria impreciso porque terá pontos flutuantes ou uma aproximação.
Mas eu culpo o marketing por vender 8 gigabytes * e adicionar isso em letras pequenas
é realmente uma pena, é a mesma coisa com a velocidade de conexão, seu ISP dirá 1.5Mbps em vez de dizer ~ 150 kiloBytes. é muito enganoso
fonte
Quando você considera que os números nos computadores são binários e 2 ^ 10 é 1024, faz todo o sentido. É muito mais fácil trabalhar com 1024 do que 1000, porque você pode dividir facilmente por 1024 usando apenas matemática inteira e deslocamento de bits . Dividir por 1000 é uma operação muito mais cara, que pode precisar de matemática de ponto flutuante.
Por exemplo
fonte