Esta pergunta já tem uma resposta aqui:
Eu sei que há uma pergunta anterior sobre isso, mas ela não tem respostas reais, apesar de ter sido vista 12.400 vezes e o fato de ter sido fechada. Com aquilo em mente...
Por que no mundo a resolução 1366x768 é algo real? Tem uma proporção de 683: 384, que é a coisa mais estranha que eu já ouvi enquanto vivia em um mundo 16: 9.
Todas as telas e resoluções com as quais estou familiarizado têm proporção de 16: 9. Minha tela, 1920x1080, é 16: 9. O 720p com o qual estou familiarizado é 1280x720, também 16: 9. 4K com o qual estou familiarizado, 3840x2160, também é 16: 9. No entanto, 1366x768 é 683: 384, uma quebra aparentemente selvagem do padrão.
Eu sei que existem muitas outras resoluções em todo o lugar, mas 1366x768 parece dominar a maior parte do mundo dos laptops de preço médio e também parece exclusivo do mundo dos laptops. Por que os laptops não usam 1280x720 ou outra coisa como padrão?
fonte
Respostas:
De acordo com a Wikipedia (ênfase minha):
As citações não são fornecidas, mas é uma explicação razoável: é o mais próximo possível de 16: 9, mantendo a resolução vertical 768 de 1024x768, amplamente usada na fabricação de telas de LCD 4: 3 anteriores. Talvez isso tenha ajudado a reduzir custos.
fonte
Na época em que as primeiras telas largas do computador se tornaram populares, a resolução usual nos painéis 4: 3 era 1024x768 (padrão de tela XGA). Portanto, por simplicidade e compatibilidade com versões anteriores, a resolução XGA foi mantida como base para a resolução WXGA, para que os gráficos XGA pudessem ser exibidos facilmente nas telas WXGA. Apenas estender a largura e manter a mesma altura também era tecnicamente mais simples, porque você precisaria apenas ajustar o tempo da taxa de atualização horizontal para alcançá-lo. No entanto, a proporção de aspecto padrão para a tela ampla era 16/9, o que não é possível com 768 pixels de largura; portanto, o valor mais próximo foi escolhido, 1366x768.
O WXGA também pode se referir a uma resolução de 1360x768 (e outras menos comuns), que foi feita para reduzir custos em circuitos integrados. 1366x768 pixels de 8 bits levariam um pouco acima de 1MiB para serem armazenados (1024,5KiB), para que não caibam no chip de memória de 8Mbit, você precisaria usar um de 16Mbit apenas para armazenar alguns pixels. É por isso que algo um pouco menor que 1366 foi tirado. Por que 1360? Como você pode dividi-lo por 8 (ou mesmo 16), o que é muito mais simples de manusear ao processar gráficos e pode trazer algoritmos otimizados.
fonte
Eu tive a mesma pergunta em 2007, porque meu computador não suporta minha resolução de TV padrão 1366x768 e achei o seguinte:
Eu recomendo ler o artigo completo aqui:
http://hd1080i.blogspot.com.ar/2006/12/1080i-on-1366x768-resolution-problems.html
fonte
768 é a soma de duas potências de 2 (512 + 256) e 1366 é 16/9 vezes 768, arredondado para o próximo número inteiro. Mas apenas a pessoa que selecionou essa resolução pode responder ao "porquê". Algumas pessoas gostam de potências de 2.
Além disso, 768 vezes 1366 é pouco mais de um Mebipixel (2 ^ 20), que é de cerca de 1,05 Megapixel (1,05 * 10 ^ 6). 768 vezes 1365 está abaixo disso, então o marketing provavelmente entrou em jogo também.
fonte