Qual é o objetivo de capturar imagens de 14 bits e editar em monitores de 8 bits?

37

Estou um pouco confuso. Se minha DSLR estiver capturando imagens de 14 bits enquanto estiver fotografando em RAW. Não preciso de um monitor de 14 bits também para aproveitar ao máximo a captura em RAW? Qual é o ponto de capturar uma imagem em 14 bits, abrir e editar apenas o monitor de profundidade de 8 bits?

user1187405
fonte
Possível duplicata de Bons exemplos de vantagens do RAW sobre JPEG?
Romeo Ninov
1
São necessários pelo menos 10 bits de RAW apenas para aplicar a curva gama exigida pelo sRGB, porque a captura é linear.
Mark Ransom

Respostas:

52

Você pode editar suas fotos com um monitor CRT preto e branco antigo e ainda assim é a mesma coisa: os bits adicionais contam.

Aqui está uma simulação de um histograma de 14 bits (A) e um de 8 bits (B). Ambos estão sobre uma grade azul que simula uma exibição de 8 bits ou um formato de arquivo de 8 bits.

Em B, todas as linhas coincidem. (O formato de 8 bits é bom o suficiente porque está próximo do que nossos olhos podem perceber em diferentes níveis de cinza)


Agora. Imagine que você precisa mover o histograma porque deseja uma imagem feliz mais brilhante.

Os diferentes níveis no lado esquerdo, deslizam para a direita.

No seu arquivo bruto, existem "subníveis" suficientes para preencher as mesmas linhas azuis. (C)

Mas os dados na imagem de 8 bits começam a formar "lacunas" (zona vermelha). Isso criará problemas de faixas, aumento de ruído etc.

insira a descrição da imagem aqui

Portanto, a diferença importante é quando você manipula ou controla sua imagem e possui dados adicionais. Isso lhe dá liberdade.

Rafael
fonte
10
+1 um bom exemplo, mas não se deve interpretar isso literalmente - na realidade, os 14 bits brutos são lineares, enquanto os 8 bits não são (por causa da gama). ainda é uma boa maneira de visualizar o que o processamento de imagem pode fazer com o histograma!
szulat
7
Sim, literalmente. Gamma é realmente o principal problema que requer 12 ou 14 bits. A gama é essencialmente a maior mudança tonal desse tipo e, nos primeiros dias, foi realizada de maneira insuficiente e inadequada em 8 bits. Portanto, os dispositivos criadores de imagens (scanners e câmeras, que precisam fazer gama) tiveram que melhorar para 10 bits, depois 12 e agora 14 bits ... todos os bits pelos quais podemos comprar hardware, pelo menos até recentemente. É verdade que nossos olhos nunca veem dados gama (exceto no gráfico do histograma). Continua ..
WayneF
3
@ WayneF, esse é um equívoco comum. A gama é igualmente benéfica agora na era digital, como se estivesse nos dias analógicos de CRT. a tela deve apresentar os mesmos níveis do original, é verdade! mas nossa percepção é não linear. é por isso que você pode codificar o brilho em 8 bits usando gama e obter o resultado semelhante a codificá-lo linearmente com 11-12 bits. mais bits significa mais memória, mais largura de banda, mais energia desperdiçada sem efeitos visíveis. é por isso que a gama está aqui para dizer. veja também os exemplos de gradientes aqui: cambridgeincolour.com/tutorials/gamma-correction.htm
szulat
2
Corrigir. A gama ainda tem um lugar na geração de imagens e vídeos digitais porque faz bom uso dos valores de código. Na extremidade inferior da faixa de brilho, 8 bits com gama é equivalente a linear de 10 bits (porque a inclinação da gama é próxima de 4). Nos fluxos de trabalho de filme, as codificações de log são mais comuns que as de gama, mas exatamente pelo mesmo motivo: economia de valores de código.
Dithermaster
3
Versão curta: as edições em uma foto digital são aplicadas matematicamente, e a profundidade de bits do monitor é independente da profundidade de bits da matemática (a menos que você esteja usando um software de edição de imagens de lixo). As edições são calculadas usando toda a profundidade de bits e, portanto, se beneficiam de ter a precisão adicional disponível.
Aroth 23/12/15
41

Profundidades de bits mais altas oferecem mais opções para edição sem perda de dados.

Não cometa o erro de vincular a representação de uma imagem com a forma como ela é renderizada . A edição produz os melhores resultados de qualidade quando você opera na representação, onde os dados subjacentes têm a maior resolução. Acontece que o monitor oferece uma visão de menor resolução da imagem, mas isso não está vinculado à qualidade da representação subjacente.

Se você se lembra da matemática da escola, sempre havia uma regra prática: nunca arredonde cálculos intermediários ao calcular resultados; sempre faça a matemática e depois arredonde no final quando apresentar os resultados. A exata mesma coisa se aplica aqui. Seu monitor é o fim, onde o "arredondamento" ocorre ao apresentá-lo a você. Sua impressora pode "arredondar" de maneira diferente. Mas em todas as etapas intermediárias, você usa os dados brutos para obter resultados mais precisos e armazena a representação original de alta resolução no disco, para poder manter essas informações e continuar a fazer edições precisas posteriormente.

Considere o seguinte: Digamos que você tenha uma imagem de origem de 5760 x 3840. Você manteria a maior flexibilidade de edição e renderização editando a imagem nesse tamanho e deixando-o nesse tamanho. Se você o visualizasse em um monitor de 1440 x 900, diminuiria o zoom no seu editor, provavelmente não redimensionaria e reamostraria os dados para ajustá-los. A mesma coisa vale para a resolução de cores.

O áudio é semelhante. Talvez a placa de som do seu computador tenha apenas recursos de saída de 12 bits. Mas se você gravar, armazenar e operar com áudio de 16 ou 24 bits, poderá fazer um sinal de baixo volume 16x ou 4096x mais alto (respectivamente) e ainda assim conseguir uma perda mínima da qualidade de saída no computador. Converta para baixo apenas no final quando estiver prestes a apresentar o resultado final. O equivalente visual está iluminando uma imagem extremamente escura com o mínimo de faixas.

Não importa qual seja a capacidade do seu monitor, se você executar uma operação de edição, por exemplo, multiplique o brilho por 2, você deseja executá-lo na representação original de alta resolução da imagem.


Aqui está um exemplo simulado. Digamos que você tirou uma foto muito escura. Essa imagem escura é a linha superior abaixo, com formatos simulados de armazenamento interno de 4, 8 e 14 bits por canal. A linha inferior é o resultado do clareamento de cada imagem. O brilho era multiplicativo, fator de escala 12x:

insira a descrição da imagem aqui ( Fonte , fotografada por Andrea Canestrari)

Observe a perda permanente de informações. A versão de 4 bits é apenas um exemplo ilustrativo de um extremo. Na versão de 8 bits, você pode ver algumas faixas particularmente no céu (clique na imagem para aumentar a exibição). O mais importante a ser observado aqui é que a versão de 14 bits foi dimensionada com a mais alta qualidade, independentemente do fato de que sua forma final de saída era o PNG de 8 bits que eu salvei como e do fato de que você provavelmente está vendo isso em uma tela de 8 ou menos bits .

Jason C
fonte
1
Ou até mesmo uma tela de 6 bits. Nem todos os monitores LCD realmente exibem uma profundidade total de 8 bits por canal.
Random832
@ Random832 existe um teste confiável para saber do que o seu LCD é capaz? Tenho uma imagem gradiente gerada por computador que mostra faixas, mas nunca tive certeza se isso ocorreu porque meus olhos conseguiam ver diferenças de um nível ou se meu monitor estava distorcendo.
Mark Ransom
@ Mark Confira este belo artigo sobre o assunto: avsforum.com/forum/… - pode ser complicado, existem muitos lugares para gargalos na cadeia de sinal da saída de vídeo até a luz que sai da tela , muita desinformação nas especificações (por exemplo, profundidades anunciadas sendo BS por causa de um decodificador de 6 bits em alguma placa de circuito aleatória) e descritores edid etc. É um sistema complexo e saber que a profundidade real não é um caso de uso comum, portanto , boa sorte! Ymmv
Jason C
1
@ MarkRansom o que deixou claro para mim foi que eu podia ver bandas em limites claramente definidos, a cada quarto nível. Alguns monitores não hesitar que pode ser um pouco mais complicado de identificar
Random832
^ Observe também que algumas exibições apresentam pontilhamento temporal em vez de espacial, o que provavelmente é quase impossível de ser observado quando realizado corretamente, mas você poderá identificá-lo em áreas escuras se tiver olhos aguçados.
Jason C
4

O Raw de 14 bits não se correlaciona com a profundidade de bits do seu monitor. Raw é um formato que é minimamente processado. Consulte Formato de imagem bruta .

O formato bruto permite que o software de pós-processamento, como o Lightroom e o Photoshop, faça ajustes finos nas imagens que não seriam possíveis com arquivos JPEG.

Quanto ao monitor, os monitores de gama ampla são geralmente de 10 bits e possuem uma LUT interna que armazena informações de calibração de calibradores como X-Rite ou Spyder. Sua placa de vídeo também precisa suportar 10 bits.

Para chips Nvidia, as placas de classe de estação de trabalho suportam 10 bits. A maioria, se não todas as placas da classe Gaming, não são da minha experiência. É semelhante aos conjuntos de chips AMD.

Se você não quiser pós-processar suas imagens, poderá mudar facilmente para JPEG.

Gmck
fonte
vale a pena notar que, em quase todos os casos, o olho humano não verá mais do que 8 bits de qualquer maneira, exceto raros gradientes suaves (principalmente sintéticos, ao contrário de fotos barulhentas naturais, onde a posterização está oculta no ruído)
szulat
8 bits é realmente apenas 256 tons, e não o suficiente para exibir gradientes suaves sem pontilhamento.
Gmck
2
verdadeiros, mas tais gradientes quase nunca pode ser visto nas fotos da vida real por causa do barulho
szulat
1
@ GMck: Há uma enorme diferença entre 0,39% e 0,78%. Uma curva logarítmica de 256 níveis seria suficiente para gradientes suaves, mas muitos efeitos de filtragem requerem essencialmente um mapeamento linear de valores para brilho (portanto, a substituição de dois valores de pixel pela média deixará o brilho geral inalterado).
Supercat 23/12
1

Talvez você devesse ler esta pergunta primeiro.

Como a faixa dinâmica do olho humano se compara à das câmeras digitais?

Basicamente, a faixa dinâmica de papel é inferior a 8 bits e a faixa dinâmica do ser humano não é diferente.

A vantagem do alto alcance dinâmico nas imagens RAW é que você pode processá-las posteriormente para trazer os bits de seu interesse para o alcance que o dispositivo de exibição pode representar - o que, por sua vez, está relacionado ao que o olho humano pode ver.

Portanto, o exemplo clássico é um interior de sala com luz do sol do lado de fora. À medida que o olho humano muda de olhar para o interior para o exterior, a íris se contrai para reduzir a quantidade de luz que entra, permitindo que você veja detalhes externos e internos.

Uma câmera não faz isso, então você normalmente teria que expor para o interior da sala (e obter destaques impressionantes) ou para o exterior (para obter um interior subexposto) - ou tirar duas fotos e fazer um composto HDR.

A faixa dinâmica mais alta do Raw permite tirar uma única foto e 'empurrar' ou 'puxar' seletivamente determinadas áreas para revelar detalhes nessas áreas superexpostas ou subexpostas.

As fotos aqui mostram esse tipo de cenário. https://www.camerastuffreview.com/camera-guide/review-dynamic-range-of-60-camera-s

Roddy
fonte
3
...is that you can post-process them to bring the bits you're interested in within the rnage that the human eye can see. Mais preciso dizer que você esmaga os bits que deseja no intervalo que o monitor pode exibir . O olho humano tem alcance ainda mais dinâmico do que uma imagem RAW de 14 bits. Não se trata do que os olhos podem ver, trata-se de capturar toda essa faixa dinâmica, para que possa ser compactada posteriormente na faixa dinâmica de exibição de um dispositivo de vídeo padrão.
J ...
2
Não, o alcance dinâmico da tela é o que é, porque é tecnologicamente difícil e caro torná-lo melhor. Uma tela de 14 bits seria incrível. Uma faixa mais dinâmica significa um espaço de cores maior - imagens mais vibrantes, coloridas e precisas. Minha tela principal, por exemplo, é internamente um painel de 12 bits (embora via pesquisa) e pode produzir 99% da gama de cores do AdobeRGB. A diferença entre isso e um painel sRGB normal de 8 bits (geralmente com cerca de 6 bits) é inacreditável. Uma faixa mais dinâmica é sempre melhor.
J ...
1
faixa dinâmica não está relacionado com o espaço de cor e cobertura sRGB, calibração e "bits" está aqui para a precisão, não para exibir mais fotos coloridas
szulat
1
@J ... en.wikipedia.org/wiki/Adaptation_(eye) "em um dado momento, o olho só consegue sentir uma taxa de contraste de mil". = 10 bits.
Roddy
1
@ Roddy Sim, mas há mais na equação do que absoluto, claro e escuro. Como acima, também se trata de resolução de cores.
J ...
-3

Os 'Wikisperts' esquecem que, independentemente da profundidade de processamento dos bits, você APENAS vê o resultado em 8 bits. Cole um arquivo de 3 bits (8 níveis) no seu sistema de 8 bits e a tela exibirá 8 níveis (256/7 = 0 a 7) de 0 a 255 nas etapas 36. Um 4 bits mostrará 16 (0 a 15). Coloque um arquivo de 10, 12 ou 14 bits e verá 256 níveis. Sua placa de vídeo converterá os níveis 1024, 4096 ou 16.384 para 256. É por isso que, em qualquer arquivo RAW que você carregar, assim que for oferecido ao seu processador de vídeo, ele se tornará níveis de 8 bits (256). Eu trabalhei em física médica, a maioria dos departamentos de imagem agora tem imagens de 12 bits para triagem de mama e afins. No entanto, o olho humano não pode detectar melhor que 900 níveis de ish, portanto, o software é usado para detectar pequenas alterações na densidade do tecido; portanto, se você encontrar alguém com um sistema de 10, 14 ou 14 bits, eles estarão fortemente endividados e mega desapontados. Incidentalmente, também lutamos para detectar alterações de cor, nossa visão diminui para menos de 16 milhões de cores, a menos que alterações minúsculas sejam de um tom semelhante, onde notamos faixas. Nossas câmeras são capazes de cerca de 4 trilhões de cores, mas, como muitas coisas, o que é teoricamente possível e realmente possível, podem ser dois animais muito diferentes.

Bob_S
fonte
1
O que você vê com um monitor de 8 bits não é o que você tem no seu arquivo de 14 bits, e daí? Como foi dito na resposta anterior, mais informação parece ser sempre melhor ...
Olivier
Vou manter as coisas simples. Tire suas fotos em bruto, produza seus jpg's a partir do arquivo bruto. Para ver a vantagem, compare seu jpg com os produzidos pela câmera. É a diferença entre uma lente profissional e uma de lixo.
22417 Bob_S
Você pode explicar seu argumento sobre a lente? Para mim, isso não tem nada a ver com esta discussão: ter 12 bits de faixa dinâmica e escolher o que você deseja manter após o pós-processamento não está absolutamente relacionado à qualidade da lente. E sim, você pode ver 12 bits de faixa dinâmica em uma tela de 8 bits, apenas brinque com correções de EV!
19417 Olivier
Não, você não pode. Sua tela de 8 bits exibirá os níveis n / 256 ou 256 / n, dependendo de você oferecer um arquivo menor ou maior que 8 bits. Podemos ajustar o ponto em que esses bits são selecionados por ajustes no PS, mas não temos controle sobre quais bits são exibidos, ou seja, a diferença entre os bits será a mesma, portanto, faltam dados !. Se tivéssemos, nós (o NHS por exemplo) não se incomodaria em gastar 46 mil libras em equipamentos de imagem de 12 bits que não produziam imagens melhores do que 8 bits.
22417 Bob_S
Gostaria de saber o que você não entende sobre poder explorar um intervalo dinâmico maior que o visível para criar uma imagem. Se você possui um arquivo com faixa dinâmica de 12 bits, pode optar por exibir a faixa de 8 bits desejada, assim é fácil. Se você fosse um fotógrafo, perceberia o quanto isso é importante: ter detalhes em destaque e na sombra é o sonho de todos. Não vou detalhar mais sobre o assunto, por favor, leia as respostas anteriores.
Olivier