Eu tenho um monitor Dell U2312HM conectado a um laptop Dell Latitude E7440. Quando os conecto via laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor
(o monitor não possui um soquete HDMI), a imagem fica muito mais nítida do que com laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor
. A diferença é difícil de capturar com uma câmera, mas veja minha tentativa abaixo. Tentei jogar com as configurações de brilho, contraste e nitidez, mas não consigo a mesma qualidade de imagem. A resolução é 1920x1080, estou usando o Ubuntu 14.04.
VGA:
HDMI:
Por que a qualidade é diferente? É intrínseco a esses padrões ou devo suspeitar de um cabo VGA com defeito ou adaptador mDP-VGA?
Respostas:
VGA é o único sinal analógico dos mencionados acima, por isso já é uma explicação para a diferença. O uso do adaptador pode piorar ainda mais sua situação.
algumas leituras adicionais: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/
fonte
Supondo que o brilho, o contrato e a nitidez sejam os mesmos nos dois casos, pode haver duas outras razões pelas quais o texto é mais nítido com DVI / HDMI:
O primeiro já foi declarado: o VGA é analógico, portanto, será necessário passar por uma conversão analógica para digital dentro do monitor, o que teoricamente prejudicará a qualidade da imagem.
Em segundo lugar, supondo que você esteja usando o Windows, existe uma técnica chamada ClearType (desenvolvida pela Microsoft) que melhora a aparência do texto manipulando os subpixels de um monitor LCD. O VGA foi desenvolvido com monitores CRT em mente e a noção de um sub pixel não é a mesma. Devido ao requisito do ClearType de usar uma tela LCD e ao fato de o padrão VGA não informar ao host, as especificações do ClearType da tela seriam desativadas com uma conexão VGA.
Fonte: Lembro-me de ouvir sobre o ClearType de um de seus criadores em um podcast para This (). Developers (). Life () IIRC, mas http://en.wikipedia.org/wiki/ClearType também suporta minha teoria. Além disso, o HDMI é compatível com DVI e DVI suporta EDID (Electronic Display Identification)
fonte
Os outros fazem alguns pontos positivos, mas o principal motivo é uma óbvia diferença de relógio e fase. O VGA é analógico e está sujeito a interferência e incompatibilidade dos lados de envio e recebimento analógicos. Normalmente, alguém usaria um padrão como este:
http://www.lagom.nl/lcd-test/clock_phase.php
E ajuste o relógio e a fase do monitor para obter a melhor correspondência e a imagem mais nítida. No entanto, como é analógico, esses ajustes podem mudar com o tempo e, portanto, você deve usar apenas um sinal digital.
fonte
Existem algumas respostas indicando um sinal digital versus analógico que está correto. Mas isso não responde ao porquê? Algumas camadas de tradução mencionadas, isso também é verdade, uma conversão convencional de A / D pode causar uma perda de fidelidade, mas é necessário medir isso, pois é difícil ver as diferenças a olho nu. Uma conversão barata e todas as apostas estão desativadas.
Então, por que o digital é melhor que o analógico?
Um sinal RGB analógico (como VGA) usa a amplitude do sinal (0,7 Volts pico a pico no caso de VGA). Como todos os sinais, há ruído que, se for grande o suficiente, fará com que os níveis sejam traduzidos incorretamente.
Reflexões no cabo (incompatibilidades de impedância) são na verdade a maior queda de um sinal de vídeo analógico. Isso introduz ruído adicional e piora com cabos mais longos (ou mais baratos), quanto maior a resolução do vídeo também aumenta a relação sinal / ruído. Curiosamente, você não deve ver nenhuma diferença em um sinal de 800x600, a menos que o cabo VGA seja muito longo.
Como um sinal digital evita essas armadilhas? Bem, para um, o nível não é mais relevante. O DVI-D / HDMI também utiliza um sinal diferencial e correção de erros para garantir que os zeros e sejam transmitidos fielmente corretamente. Também há condicionamento adicional adicionado a um sinal digital que não é prático adicionando a um sinal de vídeo analógico.
Desculpe pelos caras da caixa de sabão, mas eles os fatos.
fonte
Outra questão é que muitos cabos VGA são lixo. Se o cabo VGA é inferior a 1/4" grosso, você vai provavelmente perceberá fantasmas em monitores maiores (Superior rez, mais provável fantasma). Eu mesmo fantasmas notado no cabo VGA anexado em cerca de 19" montitors CRT. Meus cabos VGA têm cerca de 1/3 "de espessura e realmente ajudam na nitidez (fios mais grossos, mais blindagem)
fonte
HDMI e DVI são muito semelhantes. Ambos são digitais; as principais diferenças são que o HDMI suporta áudio e HDCP. Ao alternar entre HDMI e DVI, há pouca conversão real, mas a conexão dos pinos correspondentes nos conectores. A porta de exibição é um protocolo digital, mas o VGA é analógico e o conversor provavelmente introduz pequenas falhas e a redução da nitidez no sinal. O monitor provavelmente converte o sinal novamente em digital, incorrendo em outra conversão que afeta adversamente a qualidade.
No geral, o monitor de computador-> HDMI-> DVI-> possui menos conversões reais do que o monitor de computador-> DisplayPort-> VGA-> e nunca converte o sinal em analógico, fornecendo uma imagem mais nítida.
fonte
HDMI e DVI são na verdade um e o mesmo (pelo menos no seu contexto). Os conectores DVI são realmente apenas conectores HDMI com uma pinagem diferente (as linhas de pinos), além de conectores VGA com uma pinagem diferente (os pinos dispostos em forma de cruz). Se você olhar o seu conversor de HDMI para DVI, provavelmente notará que a peça em forma de cruz está faltando.
Então você está comparando uma imagem HDMI com uma imagem VGA e, como @Josh apontou, uma que envolve uma conversão real.
Na verdade, existe uma diferença entre HDMI e DVI, mas isso não é relevante para você. O HDMI pode transmitir sinais adicionais, incluindo o sinal de criptografia para proteção de conteúdo, som, Ethernet, etc.
fonte