Eu montei um novo PC com uma placa de vídeo XFX GeForce GTX 260 e o conectei à minha HDTV.
Primeiro, usei um cabo VGA antigo com um adaptador DVI para VGA e liguei-o à porta VGA da minha HDTV. Correndo em 1920x1080 cabe perfeitamente na tela.
Agora, para evitar a execução de outro cabo pela sala, conectei-o com um cabo DVI a HDMI à porta HDMI da minha TV, e a área de trabalho em 1920x1080 é cortada pela borda da tela.
Eu "consertei" o corte usando a ferramenta "Ajustar tamanho e posição do desktop" da NVIDIA, que criou uma resolução de 1814x1022 para caber na tela, mas isso não é mais a resolução nativa da TV e confunde algum software (por exemplo, WoW).
Por que o VGA funciona como esperado, mas o HDMI é dimensionado? Isso pode ser evitado?
resolution
hdmi
dvi
GraemeF
fonte
fonte
Respostas:
O que você está vendo é chamado overscan. TVs tê-lo como transmissões no formato NTSC, por vezes, não preenche todo o espaço na tela. Você precisará procurar em seus menus por uma configuração para ajustar a quantidade de overscan para 0%. Você pode até ter que encontrar uma maneira de entrar no menu de serviço da sua TV para fazer esse ajuste.
fonte
Você não menciona o que é a TV, mas provavelmente precisa configurar o modo na TV para "Just Scan" ou algo similar no menu de imagem.
fonte
Eu tive o problema oposto com a minha Samsung e uma placa ATI, que foi mostrada com barras pretas em torno da borda por padrão, enquanto rodando em 1920x1080 nativa - TV foi configurada para "apenas digitalizar".
Eu consertei isso no Catalyst Control Center - havia uma opção underscan que, por padrão, era configurada para permitir que programas de TV como o seu exibissem a imagem completa - isso escalava a imagem sem alterar o sinal enviado para a TV (ou seja, ainda era full HD e uma resolução padrão).
Não tenho certeza se a nVidia tem algo parecido ...
Quanto a "por que diferente em VGA e HDMI" - acredito que seja a mesma razão que a maioria dos monitores padrão - a VGA é dimensionada com base nos pixels ativos mais longos em cada direção (por exemplo, "Ajuste automático" na maioria dos monitores) informações de resolução, o que significa que não há escalonamento de tentativa e erro. Se a pergunta era por que diferente no DVI vs HDMI, eu ficaria perplexo :)
fonte
Nós tínhamos bordas borradas, achamos que o VGA funcionava melhor que o DVI / HDMI, mas precisávamos usar um cabo melhor, mais isolado, mais curto também.
As placas da NVIDIA são SLId, então eu não sei se isso faz alguma diferença, a TV está apenas digitalizando, mas os menus na TV não eram um problema, estava no computador. Descobrimos que o Samsung 52 é representado apenas como um 46. Nvidia tem uma configuração de escala para isso no painel de controle, e resolveu tudo.
fonte
Tente isto: você está lidando com duas coisas diferentes.
Se você estiver enviando de um computador, tente ajustar o vídeo em 1080p e, em seguida, defina a resolução na TV como 1080p. Combinar as resoluções deve dar a você os melhores resultados.
Descobri que, quando há um processo de conversão de HDMI para DVI, isso pode causar problemas de qualidade. Algo está perdido no processo de conversão e a qualidade da imagem estava ausente. Isto é o que eu vi no meu uso real com um conversor, que quando eu fui para um novo computador com HDMI na placa-mãe que a qualidade de vídeo teve uma melhoria de 100%. No entanto, minha antiga placa-mãe tinha apenas 720p para vídeo integrado.
Tente também atualizar os drivers do chipset ou da placa de vídeo.
fonte