Que sentido faz com que a “nitidez” seja ajustável em um monitor?

91

Os monitores modernos geralmente têm uma configuração de "nitidez".

Mas eu realmente não entendo como faz sentido que esse cenário exista.

O software pede ao monitor para exibir um padrão específico de valores RGB de 32 bits, certo?
ou seja, o sistema operacional pode solicitar ao monitor todo quadro para exibir um bitmap específico de 1920 × 1080 × 32.

Mas ajustar "nitidez" significa permitir que os valores de pixel próximos se afetem, o que parece implicar que a entrada não está mais sendo representada fielmente ... o que significa que não exibirá mais o que é solicitado a exibir, o que não faz sentido. Portanto, não vejo onde isso deixa espaço lógico para o ajuste da nitidez.

De onde exatamente vem o grau de liberdade para ajustar a nitidez?

Mehrdad
fonte
30
Engraçado, a última vez que vi nitidez foi em um CRT. Naquela época, era possível controlar o tempo entre os pulsos vermelho, verde e azul para alinhá-los adequadamente. Se fosse um pouco rápido ou muito lento, os três fósforos seriam meio borrados. Se você alinhá-los corretamente, a imagem era a mais nítida possível. Obviamente, isso não se aplica a monitores modernos.
Todd Wilcox
8
Você está dando muitas respostas que elas não respondem à sua pergunta; pode ser útil se você disser por que elas não respondem à pergunta. É importante notar que o monitor não é obrigado por lei a exibir o que o software solicita. Poderia, por exemplo, alterar cada terceiro pixel para verde ou invertê-los. Portanto, a razão pela qual o monitor pode "distorcer" as imagens é porque um número suficiente de clientes queria, poderia esticar a imagem com a mesma facilidade, mas ninguém queria isso, então eles não querem. Portanto, existem apenas 2 tipos de resposta: como isso é feito tecnicamente ou por que as pessoas querem isso?
Richard Tingle
3
@RichardTingle: Suponho que a resposta para "por que as pessoas querem isso" também possa responder à minha pergunta, sim. Embora eu esteja mais tentando entender o que isso faz do ponto de vista técnico. Para dar um exemplo, na verdade, faz sentido ter parâmetros de nitidez para exibir fotos RAW, porque o mapeamento dos dados do sensor para pixels é inerentemente um problema sub-determinado (ou seja, não possui uma solução única) com graus de liberdade, como nitidez, nível de ruído, etc. Mas bitmaps são pixels; então, onde é possível ajustar coisas como "nitidez"?
Mehrdad
2
@ToddWilcox: Pelo que vale a pena, pelo menos os monitores HP EliteDisplay (LCD) possuem uma configuração "Nitidez" e funcionam mesmo com uma entrada digital (por exemplo, não VGA).
sleske
2
Devo acrescentar que tive que ajustar "Nitidez" para compensar usuários que têm óculos ou contatos em alguns casos.
precisa saber é o seguinte

Respostas:

81

Por https://www.cnet.com/uk/how-to/turn-down-your-tv-sharpness-control/ , a "nitidez" em um LCD faz parte do pós-processamento.

Mesmo deixando de fora o reescalonamento / upsampling (por exemplo, se você tentar exibir um sinal SD em um monitor HD) e as complexidades da calibração de cores, o monitor nem sempre exibe a imagem como fornecida. Este é um efeito colateral lamentável do marketing.

Os fabricantes de monitores gostam de distinguir seus produtos de outros produtos. Do ponto de vista deles, se você envia o mesmo sinal ao monitor e a um concorrente mais barato, e parece idêntico, isso é ruim . Eles querem que você prefira o monitor deles. Então, existem vários truques; geralmente fora da caixa, o brilho e o contraste são levados além do que é sensato. A "nitidez" é outro truque. Como você faz sua imagem parecer mais nítida do que um concorrente que está exibindo a imagem exatamente como foi enviada? Enganação.

O filtro "nitidez" é efetivamente usado no Photoshop e em programas similares. Ele aprimora as bordas para atrair a atenção.

pjc50
fonte
7
+1 obrigado, acho que você está chegando perto de responder ao coração da minha pergunta! Com base na sua resposta, parece que a resposta direta seria "não, não faz nenhum sentido científico, mas eles não se importam e o fazem de qualquer maneira, porque ajuda no marketing".
Mehrdad
8
A maioria dos LCDs que eu vi apenas permite alterar a nitidez dos sinais analógicos, o que faz muito sentido, é claro. Conecte a tela através de DVI / HDMI e você não obterá controles de nitidez (na verdade, você perde a maioria dos controles de sinal, pois eles realmente fazem sentido para sinais não perfeitos). Também é comum em LCDs que são monitores híbridos de monitores / televisão - como as TVs têm esses recursos (para melhor ou para pior), o mesmo ocorre com esses monitores apenas para manter a paridade de recursos. Se você acha que é apenas de marketing inútil, tente assistir a um VHS em uma exibição que assume um sinal de pixel-perfect :)
Luaan
3
Não é apenas marketing. Os "pixels" não estão em linhas retas, nem são unidades únicas, como o nome que o pixel sugeriria.
HackSlash
26
O monitor nunca pode exibir a imagem como está e não é por causa da fabricação. Cores, brilho, pretos, resoluções - todos variam de monitor para monitor. Um sinal digital pode dizer 'pixel claro x com 50% de brilho'. O que é 50% de brilho? Ou o que é 100 de 200 brilho? Depende absolutamente do hardware e da programação do monitor. O que é azul? ou amarelo? É por isso que existem ajustes para começar. Assim, um usuário pode fazer com que a imagem pareça da maneira que ela acha que deve ser ou para se divertir. A ideia de que um sinal é representado 100% com precisão em qualquer monitor é ridícula.
Appleoddity
4
Alguns dos comentários são tecnicamente corretos (como "O monitor nunca pode exibir a imagem como fornecida"), mas a resposta é correta: o que está acontecendo é filtragem (e que é feito para enganar). Além disso, está filtrando com alguns coeficientes negativos, que inerentemente introduz artefatos hediondos; depois que você perceber isso, nunca mais poderá olhar para ele. :-)
R. ..
67

Pergunta original: De onde exatamente vem o grau de liberdade para ajustar a nitidez?

A nitidez está diretamente relacionada ao tipo de sinal e conteúdo que você está visualizando. Os filmes normalmente ficam melhores quando a nitidez é reduzida e os pixels podem ficar um pouco desfocados. Por outro lado, uma tela de computador desejaria alta nitidez para texto nítido e imagens nítidas. Os videogames são outro exemplo em que maior nitidez é melhor. Sinais de TV de baixa qualidade também podem ser aprimorados com controles de nitidez.

Como os monitores podem ser usados ​​para exibir uma tela de computador, filme ou praticamente qualquer fonte de vídeo, a nitidez ainda é uma configuração útil.

https://www.crutchfield.com/S-biPv1sIlyXG/learn/learningcenter/home/tv_signalquality.html

EDIT: O PO indicou nos comentários que isso não responde à pergunta.

OP: Onde no problema há espaço para algum ajuste? Como se eu dissesse x = 1 e y = 2 e depois dissesse "oh, e eu quero x - y = 3". Isso não faz sentido.

O processo de conversão de uma imagem / vídeo ao vivo em sinais analógicos / digitais elétricos, transmitindo por algum meio e recriando essa imagem em um dispositivo de exibição NUNCA é um processo de 1 para 1.

Ruído de sinal, perda de compressão, variações de fabricação e equipamento, tipo de cabeamento / sinal e outros fatores entram em cena. Todos os ajustes em um monitor foram projetados para trabalhar juntos para oferecer ao usuário final a experiência de visualização da mais alta qualidade - de acordo com o usuário final. A interpretação é inteiramente subjetiva.

OP: Esta resposta não responde à pergunta de por que o visualizador ajusta a nitidez quando isso já está definido pelo criador do conteúdo (seja Spielberg ou Excel).

Se devemos seguir essa lógica, por que os monitores precisam ou têm algum ajuste? A resposta é que o que vemos na tela não é uma representação 100% precisa dos dados originais.

Appleoddity
fonte
13
Isso não responde à minha pergunta ... Eu não estava perguntando o que é nitidez.
Mehrdad
5
@Martijn: Essa não foi a minha pergunta ...
Mehrdad
13
@Mehrdad Você pode reformular sua pergunta, então? Parece que vários respondentes (e seus eleitores) não entendem da maneira que você entende. Também entendi como "por que os LCDs suportam nitidez?" (que é respondido por este), ou talvez "como os LCDs suportam a nitidez?" (que é respondido por Aganju). Se sua pergunta não for uma dessas, você deve esclarecer.
Angew
3
@Mehrdad Na verdade, achei mais próximo de "como os LCDs suportam a nitidez", explicado por Aganju, mas ainda rejeitado por você.
Angew
3
O cabo e o sinal nos monitores modernos são digitais. Ele obtém transmissão perfeita ou dados ruins. Não há perda ou degradação de sinal possível como em um sinal analógico. Dentro do monitor, o sinal digital é convertido em algo que o painel entende e que geralmente é digital agora. A única parte analógica são os níveis de brilho de cada elemento e esses são conduzidos por um valor digital.
HackSlash
36

Você está certo de que, para uma reprodução perfeita na entrada, o monitor deve simplesmente apresentar cada pixel à medida que é entregue.

No entanto, seus olhos (e seu cérebro) não vêem pixels como entidades separadas, eles veem uma imagem formada a partir de pixels. Dependendo do que ela representa, uma imagem parece 'melhor' (mais atraente) se os parâmetros forem intencionalmente 'falsificados'.

A nitidez normalmente aumenta o contraste nas bordas da mudança de cor; por exemplo, uma letra neste texto é representada por linhas de pixels; uma linha pode parecer (simplificada) 2-2-2-2-7-7-7-2-2- 2-2 onde 2 é cinza claro e 7 é cinza escuro. Aumentar a 'nitidez' aumenta a queda de brilho na borda, de modo que os 2 últimos antes dos 7 primeiros ficam ainda mais claros (= 1) e os 7 primeiros após os 2 últimos ficam ainda mais escuros (= 8). repita para a outra aresta e você obtém 2-2-2-1-8-7-8-1-2-2-2. Isso parecerá muito mais nítido para seus olhos.
Isso é feito em ambas as dimensões e um pouco mais sofisticado, mas isso deve explicar a idéia básica.

Edit: Eu pensei que deixei isso claro na minha resposta, mas o OP afirma que ele não o entendeu:
OP Pergunta: 'que sentido faz' -> Resposta: parece mais agudo ao seu cérebro.
Muitas pessoas querem isso; se você não se importa, não use.

Aganju
fonte
18
@Mehrdad Então, qual é a sua pergunta? Você obteve uma resposta para "que sentido [usabilidade] faz para que a nitidez seja ajustável em um monitor" da Appleoddity. Você recebeu uma resposta para "que sentido [tecnologicamente] faz da nitidez ser ajustável em um monitor" da Aganju. Se nenhuma dessas perguntas for a pergunta pretendida, será necessário reescrevê-la para que a pergunta feita corresponda à pergunta esperada.
precisa saber é o seguinte
6
@Mehrdad Nos seus comentários, sua pergunta parece ser "por que os monitores podem mudar de nitidez quando o computador já diz exatamente o que exibir" - o que é respondido pela Appleoddity.
precisa saber é o seguinte
Esta resposta é funcionalmente igual à resposta dada por pjc50. Ambos estão errados.
HackSlash
33

A resposta é que um pixel não é o que você pensa que é. Não há uma correlação de 1 para 1 entre pixels digitais e pixels físicos devido à "Renderização de subpixel". A maneira como as cores são exibidas é diferente em cada monitor, mas a maioria dos monitores LCD possui distintos elementos VERMELHO, VERDE e AZUL dispostos em um triângulo. Alguns possuem adicionalmente um pixel branco criando um quad de elementos por "pixel".

insira a descrição da imagem aqui

Portanto, nem todos os layouts são criados iguais. Cada layout específico pode ter uma "resolução visual", limite de função de transferência de modulação (MTFL) diferente, definido como o número mais alto de linhas em preto e branco que podem ser renderizadas simultaneamente sem aliasing cromático visível.

Os drivers do monitor permitem que os renderizadores ajustem corretamente suas matrizes de transformação de geometria para calcular corretamente os valores de cada plano de cores e obter o melhor lucro da renderização de subpixel com o menor aliasing cromático.

A "nitidez" no seu monitor reduz o algoritmo natural de mesclagem usado para fazer com que as linhas pareçam contíguas quando não estão. Aumentar a nitidez aumentará o aliasing cromático enquanto produz linhas mais limpas. Reduzir a nitidez proporcionará uma melhor mistura de cores e suavizará as linhas que ficam entre a afinação do ponto do subpixel.

Para informações mais detalhadas, consulte este artigo: https://en.wikipedia.org/wiki/Subpixel_rendering

HackSlash
fonte
17

Você está absolutamente certo de que a definição da nitidez do monitor "distorce" a imagem dos dados com precisão de pixels enviados pelo computador (ou o que estiver conectado à outra extremidade do cabo de vídeo). No entanto, permite que o usuário melhore sua experiência visual se a nitidez dos dados precisos em pixels enviados não corresponder à nitidez desejada na imagem que está visualizando.

Portanto, o monitor não está fazendo isso:

  1. Receber bitmap do cabo
  2. Renderizar bitmap
  3. Vá para 1.

mas isso:

  1. Receber bitmap do cabo
  2. Modificar bitmap com base nas preferências do usuário
  3. Renderizar bitmap
  4. Vá para 1.

Portanto, o grau de liberdade para ajustar a nitidez é explicitamente adicionado pelo fabricante do monitor, com o objetivo de melhorar a experiência do usuário.

Angew
fonte
1
O comentário de slebetman sobre sua própria resposta parece confirmar isso como uma demanda do usuário: "Eu apenas pesquisei no ajuste da nitidez do LCD caso houvesse alguma tela de LCD. O que encontrei foram perguntas hilárias de pessoas que queriam ajustar a nitidez nas telas de LCD quando eles foram introduzidos pela primeira vez "
LVDV
13

O software pede ao monitor para exibir um padrão específico de valores RGB de 32 bits, certo? ou seja, o sistema operacional pode solicitar ao monitor todo quadro para exibir um bitmap específico de 1920 × 1080 × 32.

Não é assim que o VGA funciona. No nível do monitor, não há pixels.

Como os monitores tradicionalmente funcionavam antes da era do LCD:

  1. O software pede ao driver de dispositivo para exibir uma imagem de bitmap

  2. O driver de dispositivo divide a imagem em três formas de onda para R, G e B. Isso mesmo, formas de onda! Exatamente como formas de onda de áudio. Agora, essas formas de onda têm um formato específico porque, enquanto o áudio é 1d, as imagens são 2d.

  3. O sinal analógico para as linhas na tela é enviado para o monitor.

O monitor nunca vê um pixel, apenas vê linhas.

  1. O monitor cospe elétrons movendo-se quase à velocidade da luz de três canhões de elétrons e o feixe é desviado pelo grupo de eletroímãs, fazendo com que pintem a tela inteira.

Aqui é onde entra o controle de nitidez.

Devido às tolerâncias de fabricação, os feixes de elétrons quase nunca convergem corretamente e produzem imagens borradas diretamente da linha de montagem. Nos velhos tempos, cabe a você, a pessoa que comprou o monitor, ajustar a nitidez em casa. Posteriormente, mais modernos desses monitores antigos têm processo de ajuste automático na fábrica, mas o ajuste da nitidez ainda deve ser incorporado para que o processo funcione.

Então a resposta é realmente simples. O ajuste da nitidez existe para garantir que a imagem nos visores seja nítida.

slebetman
fonte
4
Eu apenas pesquisei no ajuste da nitidez do LCD, caso houvesse alguma tela de LCD. O que eu encontrei eram perguntas hilariantes de pessoas que queriam ajustar a nitidez em telas de LCD quando foram introduzidas pela primeira vez
slebetman
A tela LCD que eu uso possui um parâmetro de nitidez, que foi o que me fez fazer esta pergunta. O pouco sobre os monitores CRT é bom, mas infelizmente não parece relevante.
Mehrdad
@Mehrdad É uma tela LCD VGA ou DVI / HDMI puro?
slebetman
Eu uso VGA, mas acredito que também suporta DVI. Não está claro para mim o que o uso de formas de onda, em vez de sinais digitais, tem a ver com permitir que o usuário ajuste a nitidez. (?)
Mehrdad
3
Não há pixels nas formas de onda, apenas linhas; uma certa quantidade de desfoque é inevitável à medida que o sinal é transmitido. Normalmente, não é visível, mas em HD eu posso dizer a diferença entre um sinal VGA e um sinal HDMI / DVI / DP.
Pjc50
6

Em uma TV (digital), a nitidez controla um filtro de pico que aprimora as bordas. Isso não é tão útil em um monitor, se usado como monitor de computador.

No século anterior, em um monitor CRT analógico de ponta, a nitidez pode ter controlado a tensão de foco da pistola de elétrons. Isso afeta o tamanho do ponto com o qual a imagem é desenhada. Defina o tamanho do ponto muito pequeno (muito nítido) e a estrutura da linha ficará muito visível. Também pode haver interferência "Moiré" irritante na estrutura da máscara de sombra. A configuração ideal depende da resolução (taxa de amostragem) da imagem, pois muitos monitores CRT foram capazes de várias resoluções sem redimensionamento (sincronização múltipla). Defina apenas o suficiente.

As TVs CRT de última geração possuíam Modulação de velocidade de varredura, onde o feixe de varredura fica mais lento em torno de uma borda vertical, além de filtros de pico horizontal e vertical e talvez um circuito de melhoria transiente horizontal. A nitidez pode ter controlado um ou todos.

Em geral, o nitidez aprimora as bordas, tornando o lado escuro da borda mais escuro, o lado brilhante mais brilhante e o meio da borda mais íngreme. Um filtro de pico típico calcula um diferencial de 2ª ordem, no processamento digital, por exemplo (-1,2, -1). Adicione uma pequena quantidade desse pico ao sinal de entrada. Se você cortar os overshoots, isso reduzirá a "melhoria transitória".

Em alguns dispositivos digitais, a nitidez de um scaler pode ser controlada, por exemplo, em meus receptores de TV digital via satélite. Isso define a largura de banda dos filtros polifásicos de um redimensionador, que converte de uma resolução de origem para a resolução de exibição. A escala não pode ser perfeita, é sempre um compromisso entre artefatos e nitidez. Defina-o muito nítido e contornos e aliasing irritantes são visíveis.

Essa pode ser a resposta mais plausível para sua pergunta, mas apenas se o monitor estiver em escala. Não faria nada para um modo 1: 1 sem escala.

Fonte: 31 anos de experiência em processamento de sinais para TV.

StessenJ
fonte
Este post é 100% correto para tecnologia analógica como CRTs. O OP está perguntando sobre a nitidez em um monitor LCD totalmente digital. Ele pensa, como você, que "não faria nada no modo 1: 1 sem escala", mas na verdade faz. Veja minha resposta sobre a renderização de subpixel em monitores LCD.
HackSlash
Não conheço nenhum monitor que aplique a renderização de subpixel, exceto talvez um monitor portátil Pentile. Isso geralmente é feito pelo software de renderização de fontes ClearView no PC.
precisa saber é o seguinte
1
Esta tese de doutorado trata muito bem a renderização de subpixel, em Ch.3: pure.tue.nl/ws/files/1861238/200612229.pdf . Essencialmente, a renderização por subpixel trata de um erro de convergência de cores de +/- 1/3 pixel. Os CRTs não precisam, isso é feito implicitamente pela máscara de sombra (amostragem).
precisa saber é o seguinte
Nesse artigo, o processo de montagem de subpixels em um "pixel" coerente é chamado de "reconstrução espacial". Eles chamam o "pixel" de "abertura" quando falam sobre os subpixels trabalhando juntos. Os subpixels são fósforos coloridos e são mostrados claramente na página 28. Esses fósforos nem sempre são usados ​​como um conjunto claro. Você pode usar o fósforo vermelho de um conjunto ou de qualquer conjunto adjacente, dependendo da "nitidez" das linhas.
HackSlash
5

Isso não faz sentido. Ou pelo menos na maioria dos monitores LCD. Você quase sempre desejará que sua "nitidez" seja definida como 0, dependendo do monitor ou da TV (alguns irão desfocar o sinal em 0, portanto a configuração real não filtrada pode estar em algum lugar no meio), caso contrário, aplicará um filtro de aprimoramento de borda , que torna o lado mais escuro de uma aresta mais escuro e o lado mais claro. Isso é especialmente perceptível em desenhos e textos. Sua milhagem pode variar, mas acho que parece ruim em quase todos os casos.

Este é um filtro com perdas e irreversível que você provavelmente não desejará ser ativado. Seu computador está enviando dados perfeitos em pixels, de modo que "filtros de nitidez" e desfocagem geralmente são indesejáveis.

Observe também que o filtro / configuração "nitidez" é um nome impróprio. É impossível tornar a imagem mais nítida (ou seja, ter mais detalhes), apenas menos detalhada. A única maneira de obter uma imagem mais nítida é usar uma imagem de origem de alta definição.

Beefster
fonte
5

As configurações de nitidez existem nos painéis LCD porque os fabricantes pensam que os efeitos digitais venderão mais monitores e TVs. Em vez de representar fielmente a entrada do computador, o fabricante oferece ao usuário opções para ajustar a imagem de acordo com os gostos pessoais, por mais pobres que sejam.

"Nitidez" é relevante para sinais analógicos (como VGA) e para telas CRT, onde o sinal é representado por formas de onda em algum momento. Como o analógico tende a ser impreciso, as configurações de nitidez permitem calibrar tolerâncias e compensar imperfeições na saída do monitor analógico e na transmissão do sinal.

A nitidez deve ser irrelevante nos painéis de LCD usando DVI, HDMI e outras fontes de dados "perfeitas para pixels" com um mapeamento de resolução 1: 1. Sim, a nitidez distorce a imagem nesse cenário. As exibições em lojas de caixas geralmente têm nitidez e outros filtros digitais dobrados a extremos para parecerem mais dramáticos do que as exibições vizinhas. Alguns consumidores podem realmente querer esses efeitos porque se acostumaram aos efeitos dos filtros ou porque estão tentando compensar um painel LCD de baixa qualidade que parece ruim aos olhos na saída nativa. A nitidez também pode ser relevante ao usar um sinal digital que deve ser redimensionado porque a fonte e a tela têm resoluções diferentes.

No geral, você provavelmente deseja nitidez definida como Desativada ou 0 em uma tela LCD moderna com um sinal digital 1: 1.

http://hifi-writer.com/wpblog/?page_id=3517 e https://forums.anandtech.com/threads/why-does-an-lcd-tv-with-hdmi-input-need-a-sharpness -control.2080809 /

Bendodge
fonte
4

Muitos monitores podem aceitar um sinal de vídeo que não possui a mesma resolução que o painel e tentar escalá-lo conforme apropriado. Se um monitor com 1280 pixels de largura for chamado para exibir uma imagem com 1024 pixels de largura e o material de origem consistir em listras preto e branco com uma largura de pixel, a tela provavelmente mostrará um padrão de 5 pixels repetido. Em uma escala de 0 a 4, o padrão provavelmente seria 03214. Se as listras em preto e branco no original forem "significativas", mostrá-las como acima pode ser útil. Por outro lado, o padrão de repetição de 5 pixels seria uma distração que não está presente no original. Adicionar um pouco de desfoque à imagem reduziria os efeitos de aliasing do redimensionamento.

supercat
fonte
-1

Configurações diferentes são boas para conteúdo diferente. Essas configurações também podem ser alteradas na fonte, mas eu e provavelmente muitas outras não sabemos onde você pode alterar a configuração de nitidez em um PC.

Portanto, existe um menu de fácil acesso no monitor, onde a nitidez pode ser alterada.

cristão
fonte