Por que minha câmera perdoa a exposição exagerada ao fotografar em RAW?

15

Descobri que minha câmera (Sony A99) é muito tolerante em termos de superexposição ao fotografar em RAW. Com isso, quero dizer, posso superexpor uma parada mais ou menos e, quando chego em casa para o pós-processamento, posso subexpor novamente e recuperar todos os detalhes.

Claro que isso não funcionaria em jpeg. Não há dados além da área mais à direita do histograma. Mas não é o mesmo com o RAW, os dados retornam magicamente ao histograma. Por quê? A câmera reserva uma área do histograma para mim caso eu cometa algum erro? Nesse caso, isso não significa que alguma latitude será perdida se eu fotografar corretamente (perfeitamente exposto)?

Além disso, por que isso está disponível apenas para superexposição? Mas não subexposição? Acho que não vou conseguir extrair detalhes de áreas negras esmagadas.

erotsppa
fonte

Respostas:

30

Esse é um dos benefícios que você obtém ao fotografar em bruto.

Você não pode recuperar detalhes de realce ou sombra de um JPEG, pois possui 8 bits de profundidade de cor por componente de cor, 1 e é mapeado para que o menor valor de pixel seja interpretado como "preto" e o mais alto seja "branco". Simplesmente não há nada abaixo do preto ou acima do branco. Os criadores do JPEG fizeram isso porque 8 bpc é adequado para humanos perceberem uma imagem colorida adequadamente exposta. 2 O olho humano tem uma faixa dinâmica maior do que o JPEG permite, mas não pode ver essa faixa o tempo todo. 3

A maioria das câmeras com capacidade bruta é capaz de capturar pelo menos 10 bpc. 12 bpc + é muito comum e 14 bpc + é possível com os melhores sensores. O truque é: como fazer uso desse intervalo dinâmico adicional? Existem vários espaços de design nos quais encontrar uma solução:

  • Captura e exibição de gama completa

    O medidor de exposição da câmera pode tentar capturar o máximo de alcance dinâmico possível fisicamente, além de exibir tudo na pequena tela na parte traseira da câmera. Seu software de processamento bruto também pode tentar mostrar toda a faixa dinâmica no arquivo de imagem na tela. Ao salvar um JPEG, a câmera poderia apenas mapear toda essa faixa dinâmica, da maneira óbvia, descartando efetivamente os bits menos significativos do sensor.

    Ninguém faz isso. 4

    Se você tirar uma foto de um arbusto com luz de fundo ao pôr do sol, a câmera pode tentar capturar as formigas pretas na sombra cinza escura sob a densa folhagem verde escura e ao mesmo tempo capturar detalhes da mancha solar no disco solar.

    As câmeras não fazem isso porque a imagem resultante pareceria lama listrada. Os olhos humanos não têm o alcance dinâmico para ver as formigas e os raios solares ao mesmo tempo, de modo que os cérebros humanos não esperam ver essas coisas. 5 Também não temos tecnologia de exibição boa o suficiente para reproduzir uma imagem fisicamente correta. 6

  • Fatia do meio

    Em vez disso, a câmera poderia simplesmente colocar sua noção de exposição "correta" bem no meio da faixa e extrair o JPEG de 8 bits e a visualização da tela no meio da faixa. Se a sua câmera tiver um sensor de 12 bits, poderá efetivamente fornecer um intervalo de ajuste de exposição de ± 2 pontos, pois cada 1 bpc se traduz em 1 ponto, em termos fotográficos.

    Não acho que esse seja um caminho totalmente ruim, mas não daria as imagens mais agradáveis. As empresas de câmeras que fizeram isso não venderiam muitas câmeras.

  • Ponto preto e curva gama

    Um plano muito melhor é escolher um nível de brilho na imagem para chamar preto 7 e, em seguida, escolher uma curva gama para remapear os dados brutos do sensor nessa faixa de 8 bpc.

    Com esse método, a câmera e o software de processamento bruto podem optar por deixar alguns dados brutos fora do intervalo mapeado, para que o arquivo de imagem bruto codifique mais preto que preto e mais brilhante que branco. Esta é a região da qual você seleciona quando o seu software de processamento bruto recupera detalhes de realces ou sombras.

Não existe uma autoridade universal determinando qual método usar, e mesmo que existisse, há muita variação na tecnologia existente e ainda há muito mais espaço para variações adicionais. Por exemplo, DNGs com perda usam um espaço de cores de 8 bpc, mas da maneira não linear em que os dados da imagem de entrada são mapeados para os valores de saída, você ainda possui um pouco de faixa dinâmica para trabalhar fora da faixa de exibição normalmente visível.


Notas de rodapé:

  1. 8 bpc também é chamado de "24 bits" por aqueles que preferem considerar os três canais necessários para a geração de imagens coloridas.

  2. A qualquer momento, o olho humano tem menos alcance dinâmico do que você obtém dos 8 bpc. A única razão pela qual usamos tantos bits por canal é que computadores gostam de lidar com dados em blocos de 8 bits, assim como os monitores digitais. Qualquer valor que uma variante de 7 bpc ou 9 bpc de JPEG possa ter é eliminado por décadas de inércia histórica nos pressionando a ficar com 8.

  3. Se seus olhos pudessem usar toda a faixa dinâmica o tempo todo, você não precisaria apertar os olhos por um tempo ao sair de uma casa mal iluminada ao meio-dia ou ao acender a luz da cama ao acordar no escuro.

  4. Não duvido que isso tenha sido tentado várias vezes em laboratórios de pesquisa. Eu ficaria surpreso ao saber que o software foi disponibilizado publicamente para isso. Se eu quisesse estar precisamente correto, teria que reescrever essa frase para algo menos incisivo, como "Ninguém obteve sucesso comercial produzindo software ou hardware que apresenta imagens usando esse método".

  5. Isso é parte do motivo pelo qual é difícil criar um bom HDR .

  6. E se tivéssemos essa tecnologia, você não seria capaz de olhar o sol na imagem reproduzida, assim como não poderia tirar a foto.

  7. Ou branco, se você preferir. Realmente não importa. Você pode trabalhar a matemática de qualquer maneira.

Warren Young
fonte
1
Ainda melhor, o Sony A99 possui um sensor Exmor, que é essencialmente sem ISO. Ou seja, puxar ou empurrar uma exposição após algumas paradas no post tem essencialmente o mesmo efeito no ruído que alterar o ISO na câmera pelo mesmo número de paradas.
Chinmay Kanchi
3
Resposta atualizada é excelente!
Por favor, leia o perfil
Fascinante. Se eu fotografar em RAW e depois importar para o Lightroom, utilizo automaticamente os dados brutos completos quando faço meus ajustes com os vários controles deslizantes ou preciso me envolver mais com as opções avançadas?
Drew
Ocasionalmente, um fabricante de câmera inventa uma nova variante bruta estranha que possui "recursos" que não correspondem aos recursos do software de processamento bruto de terceiros, forçando-o a usar o software proprietário proprietário para usar o novo recurso. A Adobe adicionou recursos ao Lightroom e ao ACR para acomodar essas características erradas algumas vezes, e provavelmente fez muito mais que eu não notei. Como regra, você não precisa se sentir deixado de fora de algo realmente importante usando o Lightroom.
21813 Warren Young
@AndrewHeath Sim. Quando tiro fotos sem flash em ambientes fechados com minha Canon, muitas vezes recebo janelas brancas na imagem padrão inicial e na versão jpeg da câmera, mas deslizo os "destaques" para baixo e de repente vejo todos os verdes no jardim do lado de fora e no céu azul.
Michael Nielsen
5

O histograma exibido pela câmera é baseado na visualização jpeg na câmera gerada quando você salva um arquivo RAW. Na pré-visualização, os dados é ido e irrecuperável. As informações ainda estão no arquivo RAW.

A maioria das câmeras usa na faixa de 12 a 14 bits por canal de cor, mas o padrão JPEG permite apenas 8 bits por canal. Quando você exibe seu arquivo RAW no seu computador, a exibição também é limitada a 8 bits por canal de cor. O mesmo está acontecendo no seu computador que acontece na tela de visualização da câmera e no histograma. Ao alterar a exposição no pós-processamento, você altera quais oito dos 12-14 bits por canal de cores são realmente exibidos no monitor. Ao ajustar as curvas de tom, você pode até espremer mais dessa faixa dinâmica em apenas 8 bits.

Michael C
fonte
3

A faixa dinâmica é a diferença entre a parte mais escura e mais brilhante de uma imagem. Os JPEGs precisam representar cada cor com 8 bits de informação, onde, como brutos, podem usar mais bits (portanto, mais valores possíveis).

Existem duas opções de como a câmera pode resolver a diferença na profundidade de bits. Ou pode representar uma variação menor para cada valor (etapas menores) ou pode representar um intervalo dinâmico mais amplo. Também poderia fazer alguma combinação entre eles.

Para câmeras que possuem uma ampla faixa dinâmica para o sensor, o jpeg normalmente será focado em torno de apenas uma parte da faixa dinâmica para fornecer gradientes suaves com um número limitado de valores possível. O arquivo bruto, no entanto, cobrirá toda a faixa dinâmica do sensor e, portanto, poderá armazenar informações que, de outra forma, estariam fora da faixa para o JPEG (porque excede o valor máximo de 8 bits).

Esse espaço extra no arquivo RAW permite mudar os pontos para o intervalo que pode ser expresso por um JPEG que você produz manualmente mais tarde através de um utilitário RAW.

AJ Henderson
fonte
0

Bottom line? Você está perguntando sobre o uso da faixa completa de faixa dinâmica da sua câmera, que, de fato, excede a sugerida pela largura do quadro de histograma ajustado pelo JPEG da A99.

Aqui está um tutorial publicado no UglyHedgehog que aborda esse problema preciso.

http://www.uglyhedgehog.com/t-372364-1.html

Dave
fonte