Os monitores modernos geralmente têm uma configuração de "nitidez".
Mas eu realmente não entendo como faz sentido que esse cenário exista.
O software pede ao monitor para exibir um padrão específico de valores RGB de 32 bits, certo?
ou seja, o sistema operacional pode solicitar ao monitor todo quadro para exibir um bitmap específico de 1920 × 1080 × 32.
Mas ajustar "nitidez" significa permitir que os valores de pixel próximos se afetem, o que parece implicar que a entrada não está mais sendo representada fielmente ... o que significa que não exibirá mais o que é solicitado a exibir, o que não faz sentido. Portanto, não vejo onde isso deixa espaço lógico para o ajuste da nitidez.
De onde exatamente vem o grau de liberdade para ajustar a nitidez?
Respostas:
Por https://www.cnet.com/uk/how-to/turn-down-your-tv-sharpness-control/ , a "nitidez" em um LCD faz parte do pós-processamento.
Mesmo deixando de fora o reescalonamento / upsampling (por exemplo, se você tentar exibir um sinal SD em um monitor HD) e as complexidades da calibração de cores, o monitor nem sempre exibe a imagem como fornecida. Este é um efeito colateral lamentável do marketing.
Os fabricantes de monitores gostam de distinguir seus produtos de outros produtos. Do ponto de vista deles, se você envia o mesmo sinal ao monitor e a um concorrente mais barato, e parece idêntico, isso é ruim . Eles querem que você prefira o monitor deles. Então, existem vários truques; geralmente fora da caixa, o brilho e o contraste são levados além do que é sensato. A "nitidez" é outro truque. Como você faz sua imagem parecer mais nítida do que um concorrente que está exibindo a imagem exatamente como foi enviada? Enganação.
O filtro "nitidez" é efetivamente usado no Photoshop e em programas similares. Ele aprimora as bordas para atrair a atenção.
fonte
Pergunta original: De onde exatamente vem o grau de liberdade para ajustar a nitidez?
A nitidez está diretamente relacionada ao tipo de sinal e conteúdo que você está visualizando. Os filmes normalmente ficam melhores quando a nitidez é reduzida e os pixels podem ficar um pouco desfocados. Por outro lado, uma tela de computador desejaria alta nitidez para texto nítido e imagens nítidas. Os videogames são outro exemplo em que maior nitidez é melhor. Sinais de TV de baixa qualidade também podem ser aprimorados com controles de nitidez.
Como os monitores podem ser usados para exibir uma tela de computador, filme ou praticamente qualquer fonte de vídeo, a nitidez ainda é uma configuração útil.
https://www.crutchfield.com/S-biPv1sIlyXG/learn/learningcenter/home/tv_signalquality.html
EDIT: O PO indicou nos comentários que isso não responde à pergunta.
O processo de conversão de uma imagem / vídeo ao vivo em sinais analógicos / digitais elétricos, transmitindo por algum meio e recriando essa imagem em um dispositivo de exibição NUNCA é um processo de 1 para 1.
Ruído de sinal, perda de compressão, variações de fabricação e equipamento, tipo de cabeamento / sinal e outros fatores entram em cena. Todos os ajustes em um monitor foram projetados para trabalhar juntos para oferecer ao usuário final a experiência de visualização da mais alta qualidade - de acordo com o usuário final. A interpretação é inteiramente subjetiva.
Se devemos seguir essa lógica, por que os monitores precisam ou têm algum ajuste? A resposta é que o que vemos na tela não é uma representação 100% precisa dos dados originais.
fonte
Você está certo de que, para uma reprodução perfeita na entrada, o monitor deve simplesmente apresentar cada pixel à medida que é entregue.
No entanto, seus olhos (e seu cérebro) não vêem pixels como entidades separadas, eles veem uma imagem formada a partir de pixels. Dependendo do que ela representa, uma imagem parece 'melhor' (mais atraente) se os parâmetros forem intencionalmente 'falsificados'.
A nitidez normalmente aumenta o contraste nas bordas da mudança de cor; por exemplo, uma letra neste texto é representada por linhas de pixels; uma linha pode parecer (simplificada) 2-2-2-2-7-7-7-2-2- 2-2 onde 2 é cinza claro e 7 é cinza escuro. Aumentar a 'nitidez' aumenta a queda de brilho na borda, de modo que os 2 últimos antes dos 7 primeiros ficam ainda mais claros (= 1) e os 7 primeiros após os 2 últimos ficam ainda mais escuros (= 8). repita para a outra aresta e você obtém 2-2-2-1-8-7-8-1-2-2-2. Isso parecerá muito mais nítido para seus olhos.
Isso é feito em ambas as dimensões e um pouco mais sofisticado, mas isso deve explicar a idéia básica.
Edit: Eu pensei que deixei isso claro na minha resposta, mas o OP afirma que ele não o entendeu:
OP Pergunta: 'que sentido faz' -> Resposta: parece mais agudo ao seu cérebro.
Muitas pessoas querem isso; se você não se importa, não use.
fonte
A resposta é que um pixel não é o que você pensa que é. Não há uma correlação de 1 para 1 entre pixels digitais e pixels físicos devido à "Renderização de subpixel". A maneira como as cores são exibidas é diferente em cada monitor, mas a maioria dos monitores LCD possui distintos elementos VERMELHO, VERDE e AZUL dispostos em um triângulo. Alguns possuem adicionalmente um pixel branco criando um quad de elementos por "pixel".
Portanto, nem todos os layouts são criados iguais. Cada layout específico pode ter uma "resolução visual", limite de função de transferência de modulação (MTFL) diferente, definido como o número mais alto de linhas em preto e branco que podem ser renderizadas simultaneamente sem aliasing cromático visível.
Os drivers do monitor permitem que os renderizadores ajustem corretamente suas matrizes de transformação de geometria para calcular corretamente os valores de cada plano de cores e obter o melhor lucro da renderização de subpixel com o menor aliasing cromático.
A "nitidez" no seu monitor reduz o algoritmo natural de mesclagem usado para fazer com que as linhas pareçam contíguas quando não estão. Aumentar a nitidez aumentará o aliasing cromático enquanto produz linhas mais limpas. Reduzir a nitidez proporcionará uma melhor mistura de cores e suavizará as linhas que ficam entre a afinação do ponto do subpixel.
Para informações mais detalhadas, consulte este artigo: https://en.wikipedia.org/wiki/Subpixel_rendering
fonte
Você está absolutamente certo de que a definição da nitidez do monitor "distorce" a imagem dos dados com precisão de pixels enviados pelo computador (ou o que estiver conectado à outra extremidade do cabo de vídeo). No entanto, permite que o usuário melhore sua experiência visual se a nitidez dos dados precisos em pixels enviados não corresponder à nitidez desejada na imagem que está visualizando.
Portanto, o monitor não está fazendo isso:
mas isso:
Portanto, o grau de liberdade para ajustar a nitidez é explicitamente adicionado pelo fabricante do monitor, com o objetivo de melhorar a experiência do usuário.
fonte
Não é assim que o VGA funciona. No nível do monitor, não há pixels.
Como os monitores tradicionalmente funcionavam antes da era do LCD:
O software pede ao driver de dispositivo para exibir uma imagem de bitmap
O driver de dispositivo divide a imagem em três formas de onda para R, G e B. Isso mesmo, formas de onda! Exatamente como formas de onda de áudio. Agora, essas formas de onda têm um formato específico porque, enquanto o áudio é 1d, as imagens são 2d.
O sinal analógico para as linhas na tela é enviado para o monitor.
O monitor nunca vê um pixel, apenas vê linhas.
Aqui é onde entra o controle de nitidez.
Devido às tolerâncias de fabricação, os feixes de elétrons quase nunca convergem corretamente e produzem imagens borradas diretamente da linha de montagem. Nos velhos tempos, cabe a você, a pessoa que comprou o monitor, ajustar a nitidez em casa. Posteriormente, mais modernos desses monitores antigos têm processo de ajuste automático na fábrica, mas o ajuste da nitidez ainda deve ser incorporado para que o processo funcione.
Então a resposta é realmente simples. O ajuste da nitidez existe para garantir que a imagem nos visores seja nítida.
fonte
Em uma TV (digital), a nitidez controla um filtro de pico que aprimora as bordas. Isso não é tão útil em um monitor, se usado como monitor de computador.
No século anterior, em um monitor CRT analógico de ponta, a nitidez pode ter controlado a tensão de foco da pistola de elétrons. Isso afeta o tamanho do ponto com o qual a imagem é desenhada. Defina o tamanho do ponto muito pequeno (muito nítido) e a estrutura da linha ficará muito visível. Também pode haver interferência "Moiré" irritante na estrutura da máscara de sombra. A configuração ideal depende da resolução (taxa de amostragem) da imagem, pois muitos monitores CRT foram capazes de várias resoluções sem redimensionamento (sincronização múltipla). Defina apenas o suficiente.
As TVs CRT de última geração possuíam Modulação de velocidade de varredura, onde o feixe de varredura fica mais lento em torno de uma borda vertical, além de filtros de pico horizontal e vertical e talvez um circuito de melhoria transiente horizontal. A nitidez pode ter controlado um ou todos.
Em geral, o nitidez aprimora as bordas, tornando o lado escuro da borda mais escuro, o lado brilhante mais brilhante e o meio da borda mais íngreme. Um filtro de pico típico calcula um diferencial de 2ª ordem, no processamento digital, por exemplo (-1,2, -1). Adicione uma pequena quantidade desse pico ao sinal de entrada. Se você cortar os overshoots, isso reduzirá a "melhoria transitória".
Em alguns dispositivos digitais, a nitidez de um scaler pode ser controlada, por exemplo, em meus receptores de TV digital via satélite. Isso define a largura de banda dos filtros polifásicos de um redimensionador, que converte de uma resolução de origem para a resolução de exibição. A escala não pode ser perfeita, é sempre um compromisso entre artefatos e nitidez. Defina-o muito nítido e contornos e aliasing irritantes são visíveis.
Essa pode ser a resposta mais plausível para sua pergunta, mas apenas se o monitor estiver em escala. Não faria nada para um modo 1: 1 sem escala.
Fonte: 31 anos de experiência em processamento de sinais para TV.
fonte
Isso não faz sentido. Ou pelo menos na maioria dos monitores LCD. Você quase sempre desejará que sua "nitidez" seja definida como 0, dependendo do monitor ou da TV (alguns irão desfocar o sinal em 0, portanto a configuração real não filtrada pode estar em algum lugar no meio), caso contrário, aplicará um filtro de aprimoramento de borda , que torna o lado mais escuro de uma aresta mais escuro e o lado mais claro. Isso é especialmente perceptível em desenhos e textos. Sua milhagem pode variar, mas acho que parece ruim em quase todos os casos.
Este é um filtro com perdas e irreversível que você provavelmente não desejará ser ativado. Seu computador está enviando dados perfeitos em pixels, de modo que "filtros de nitidez" e desfocagem geralmente são indesejáveis.
Observe também que o filtro / configuração "nitidez" é um nome impróprio. É impossível tornar a imagem mais nítida (ou seja, ter mais detalhes), apenas menos detalhada. A única maneira de obter uma imagem mais nítida é usar uma imagem de origem de alta definição.
fonte
As configurações de nitidez existem nos painéis LCD porque os fabricantes pensam que os efeitos digitais venderão mais monitores e TVs. Em vez de representar fielmente a entrada do computador, o fabricante oferece ao usuário opções para ajustar a imagem de acordo com os gostos pessoais, por mais pobres que sejam.
"Nitidez" é relevante para sinais analógicos (como VGA) e para telas CRT, onde o sinal é representado por formas de onda em algum momento. Como o analógico tende a ser impreciso, as configurações de nitidez permitem calibrar tolerâncias e compensar imperfeições na saída do monitor analógico e na transmissão do sinal.
A nitidez deve ser irrelevante nos painéis de LCD usando DVI, HDMI e outras fontes de dados "perfeitas para pixels" com um mapeamento de resolução 1: 1. Sim, a nitidez distorce a imagem nesse cenário. As exibições em lojas de caixas geralmente têm nitidez e outros filtros digitais dobrados a extremos para parecerem mais dramáticos do que as exibições vizinhas. Alguns consumidores podem realmente querer esses efeitos porque se acostumaram aos efeitos dos filtros ou porque estão tentando compensar um painel LCD de baixa qualidade que parece ruim aos olhos na saída nativa. A nitidez também pode ser relevante ao usar um sinal digital que deve ser redimensionado porque a fonte e a tela têm resoluções diferentes.
No geral, você provavelmente deseja nitidez definida como Desativada ou 0 em uma tela LCD moderna com um sinal digital 1: 1.
http://hifi-writer.com/wpblog/?page_id=3517 e https://forums.anandtech.com/threads/why-does-an-lcd-tv-with-hdmi-input-need-a-sharpness -control.2080809 /
fonte
Muitos monitores podem aceitar um sinal de vídeo que não possui a mesma resolução que o painel e tentar escalá-lo conforme apropriado. Se um monitor com 1280 pixels de largura for chamado para exibir uma imagem com 1024 pixels de largura e o material de origem consistir em listras preto e branco com uma largura de pixel, a tela provavelmente mostrará um padrão de 5 pixels repetido. Em uma escala de 0 a 4, o padrão provavelmente seria 03214. Se as listras em preto e branco no original forem "significativas", mostrá-las como acima pode ser útil. Por outro lado, o padrão de repetição de 5 pixels seria uma distração que não está presente no original. Adicionar um pouco de desfoque à imagem reduziria os efeitos de aliasing do redimensionamento.
fonte
Configurações diferentes são boas para conteúdo diferente. Essas configurações também podem ser alteradas na fonte, mas eu e provavelmente muitas outras não sabemos onde você pode alterar a configuração de nitidez em um PC.
Portanto, existe um menu de fácil acesso no monitor, onde a nitidez pode ser alterada.
fonte