Como o software aumenta a exposição no pós-processamento?

9

Alguém conhece algum algoritmo ou pode explicar matematicamente como o brilho (EV) é executado no pós-processamento? Ele ajusta o nível de brilho / RBG / contraste para cada pixel? Está relacionado ao histograma?

Quais são os aspectos técnicos da compensação de exposição para uma imagem subexposta no pós-processamento?

EDIT: Nesta pergunta aqui, um link foi postado. Ele tem exemplos de mudar o EV e ele se move para a esquerda / direita. Na resposta de Matt Grumm, ele afirma que cada pixel é "multiplicado" (o que, na minha opinião, indica que o histograma é movido para cima / para baixo).

Alguém pode explicar por que esse é o caso? (Esse EV muda da esquerda para a direita)

BBking
fonte
Você pretende restringir esta pergunta a determinados produtos da Adobe ou está interessado em ajustes de exposição no pós-processamento em geral?
Por favor, leia meu perfil
possível duplicação de O que significa clarear uma imagem?
Itai
2
Eu li isso duas vezes e ainda estou achando uma pergunta bastante confusa. Você poderia reformular algumas das partes mais discursivas e se concentrar claramente na sua pergunta principal?
Mark Whitaker
@mattdm Sim, em geral. Itai meio que não. :) Mark Whitaker vai fazer. (I foi dito que eu não posso a mais de uma pessoa)
BBKing
@ Mark Whitaker Já deixei isso mais claro?
BBking 22/10/12

Respostas:

6

Sei que ficamos entusiasmados por ter câmeras digitais, mas o fato é que não . Temos câmeras analógicas que possuem um formato de saída digital (e muitos circuitos digitais que também não estão diretamente relacionados à imagem).

Sempre que um sinal analógico é convertido em sinal digital, você introduz um ruído de quantização. Ou seja, é muito improvável que o sinal que entra na conversão corresponda exatamente ao valor do número digital que sai do outro lado - pense nele como erros de truncamento ou arredondamento.

Quando você realiza o pós-processamento em um arquivo de imagem digital, o ruído de quantização adicionado à câmera é "gravado". Não importa com que profundidade de bit você esteja trabalhando no pós, os dados com os quais você trabalha têm os componentes de ruído analógico (bem, quântico) (ruído térmico e de tiro, distorção do amplificador etc.) e o ruído de quantização da saída da câmera. A qualidade dos dados base não é perfeita; portanto, qualquer cálculo feito com base nos dados defeituosos resultará em saída defeituosa. GIGO , como eles dizem.

Na câmera, por outro lado, você tem a oportunidade de amplificar (ou atenuar) o sinal analógico antes da quantização. Isso não ajuda em nada com o ruído no domínio analógico, mas reduz o ruído de quantização em um determinado nível de brilho .

Digamos que você tenha um valor analógico de 4,4 whatchamacallits. Se você fotografar usando ISO 100, nossa hipotética câmera "digital" converterá isso em um valor digital de exatamente 4. Se você optar por aumentar a exposição aparente na publicação, ficará sem trabalhar com a 4, que está truncada. Se você aumentar o ISO na câmera (em menos de um ponto final), esse 4.4 será amplificado por circuitos analógicos antes de ser convertido para digital e poderá resultar em um valor digital 1-maior do que o processamento totalmente digital calcula. Uma diferença de bit único pode não parecer muito, mas quando você começa a acumular todos os erros ao longo do processo, um determinado pixel pode estar muito distante dos valores que deveria ter. Isso é o que é barulho.

(Também existe o fato de que a câmera "conhece" suas próprias características de resposta e pode ser responsável por elas no processamento. O Lightroom, por exemplo, não faz subtração de ruído do sensor baseada em ISO, específica da câmera. As câmeras podem , embora não todos fazem .)


fonte
Obrigado Stan. Sim, há todos os tipos de ruído em uma imagem fotográfica. Portanto, se você ajustar o EV em PP, também amplificará esse ruído. Assim como o ISO amplifica qualquer ruído.
BBking 13/10/12
2
Bump ISO e EV amplificam o ruído, mas acho que o que Stan está dizendo é que ajustar o ISO para cima na câmera é melhor do que aumentar a exposição no pós-processamento (porque você está basicamente amplificando o sinal antes que o ruído de quantização seja introduzido no A / D passo).
quer tocar hoje
4

Essa é a fórmula que você está procurando?

RGB[c] = max( RGB[c] * pow(2,EV), RGBmax )

O que basicamente significa que, para cada canal (de cada pixel) dos dados RGB, multiplique-o por 2 ^ EV e, em seguida, prenda-o no valor máximo para seus dados. Para cores de 8 bits, o RGBmax será 255, para cores de 16 bits será 65535 etc.

EV aqui é EV relativo, então EV + 2.0 multiplicará (iluminará) cada pixel por um fator de quatro e EV-2.0 dividirá (escurecer) cada pixel por um fator de quatro.

A fórmula em si não depende do histograma, mas se você precisar decidir qual valor de exposição usar para ajustar a imagem de maneira otimizada, algum tipo de estatística será feita a partir do histograma para calcular o VE.

Polvo
fonte
11
Acredito que os valores RGB já representam o brilho percebido, portanto sua fórmula está incorreta. Seria correto os valores medidos pelo sensor (que é próximo de linear, veja a resposta de Matt), mas não os valores RGB já convertidos. (Experimente o que acontece se você aplicar a fórmula.)
Szabolcs
@Szabolcs, pensei que o OP estava pedindo um algoritmo para fazer a compensação do VE no pós-processamento, não? Admito que a pergunta não está clara para mim, mas eles estão pedindo matemática.
Octopus
Obrigado pela sua resposta! Você tem um link para essas fórmulas para que eu possa examiná-las mais de perto?
BBKing
11
@ Octopus Sim, mas o que quero dizer é que sua fórmula está incorreta se aplicada aos valores de RBG . Os valores RGB são calculados a partir dos dados brutos do sensor, pegando o logaritmo do valor bruto (nossa percepção é aproximadamente logarítmica) e depois redimensionando o resultado linearmente (o que corresponde à configuração do ponto preto e do ponto branco). (Além disso, algumas outras coisas que Matt mencionou.) Portanto, sua fórmula está correta quando aplicada a valores brutos de pixel, mas está incorreta para valores RGB. Se você realmente tentar realizar a transformação em uma imagem na prática, verá o que quero dizer.
precisa
Pegue um arquivo bruto, extraia os dados usando dcrawo -4comutador para garantir que ele não faça a transformação do log, tente executar uma conversão bruta básica e aplique uma compensação de exposição durante o processo.
Szabolcs
3

Nota: a pergunta foi editada, já que a resposta de Stan aborda o que é efetivamente uma pergunta diferente:

Alguém conhece algum algoritmo ou pode explicar matematicamente como o brilho (EV) é executado no pós-processamento? Ele ajusta o nível de brilho / RBG / contraste para cada pixel? Está relacionado ao histograma?

Quais são os aspectos técnicos da compensação de exposição para uma imagem subexposta no pós-processamento?

Pode ser simples multiplicar todos os valores de pixel (por exemplo, brilho, contraste não é um termo que se aplica a pixels individuais) e aplicar um deslocamento. Se isso for feito após a remoção de degelo, basta multiplicar os valores vermelho, verde e azul pelo mesmo fator.

O processo de compensação de exposição é um pouco mais complexo no contexto da conversão RAW, pois os sensores de câmera são dispositivos lineares inerentes, enquanto a maioria dos conversores RAW aplica uma curva de tom não linear para tentar emular a curva S contrastante que você obtém com o filme.

Portanto, o melhor momento para fazer a compensação da exposição é antes que ela seja aplicada. Isso basicamente significa usar a função EC do seu conversor RAW, não espere até que você exporte o Photoshop, pois a curva não linear quase certamente já será aplicada até então.

A situação é ainda mais complexa, pois alguns conversores RAW * usavam perfis de cores "trançados", que fazem com que o matiz / saturação seja mapeado para diferentes valores, dependendo da intensidade. Isso é feito para produzir cores mais agradáveis ​​à custa da precisão e pode afetar os resultados da compensação de exposição.

Alguns conversores RAW também oferecem ferramentas para recuperar destaques e aumentar as sombras. Eles fazem ajustes locais (ou seja, levam em conta muito mais do que valores de pixels individuais). Se você quiser conhecer os detalhes desses algoritmos, provavelmente terá que esperar e esperar que um desenvolvedor do Lightroom apareça aqui.

* quando digo "alguns conversores RAW", estou basicamente falando sobre o Lightroom / ACR, como esse foi o único que eu estudei, outros conversores RAW avançados provavelmente fazem o mesmo.

Matt Grum
fonte
Pelo que você sabe, você é capaz de demonstrar como a multiplicação do valor RGB resulta em maior brilho? Por exemplo, uma estrutura de pixel tem valores para cor e brilho? Tanto quanto eu sei, você pode multiplicar um valor de pixel para mudar sua cor também. Eu gosto da curva em S. Sei que estou perguntando especificamente sobre um pixel individual, mas entendo mais o envolvimento de uma imagem como um todo. Eu entendo que a interpolação também está envolvida.
BBking 21/08/13
11
Os arquivos RAW do @BBking contêm apenas valores de intensidade (brilho), cada pixel possui um filtro de cores, para que você tenha intensidades alternadas de vermelho, verde e azul. Como os sensores da câmera são dispositivos lineares, a escala dos valores registrados gera praticamente o mesmo resultado que a exposição do sensor por mais tempo. Após a remoção do degelo, as imagens podem ser armazenadas em vários formatos de cores, sendo o mais comum o RGB, onde a cada pixel é registrada a quantidade de luz vermelha, verde e azul. Multiplicar cada um desses valores pelo mesmo fator aumenta o brilho, multiplicar cada valor por uma quantidade diferente altera a cor.
precisa
'Como os sensores de câmera são dispositivos lineares' ... Para serem pedantes, os sensores de câmera são 'quase lineares' como ([você já apontou]) ( photo.stackexchange.com/a/33986/6294 ). (Eu pensei que valeria a pena mencionar, pois o OP também está interessado na formulação matemática do problema). Um bom algoritmo poderia, em teoria, levar em conta a resposta típica do sensor, mesmo que funcionasse apenas com valores RGB.
23413 Alberto Alberto
@Alberto sim que é um ponto bom, eu deveria ter dito "aproximadamente linear", mas como o meu comentário já foi de 598 caracteres que teria tomado mais de 600 e teria divisão necessitado em duas comentários;)
Matt Grum
3

Matematicamente, o brilho de uma matriz (imagem) é afetado globalmente, agindo sobre o valor da função CIE L * da tonalidade do pixel. É uma relação aritmética. Adicione, subtraia, multiplique e divida.

Novamente, matematicamente, uma matriz de transformação (numérica) é encaminhada para a matriz existente em pp. Elas podem ser feitas seletivamente para o sujeito ou para a matriz geral (imagem).

Boa exposição e má exposição são termos arbitrários - desde que o alcance da iluminação do objeto esteja dentro do alcance útil do sensor da câmera. O alcance do assunto pode ser amplo ou estreito ao extremo.

Nota: O histograma é um auxílio visual que representa a distribuição relativa das iluminâncias na imagem. É linear. Não tem nada a ver com exposição, a relação recíproca de intensidade e tempo, sempre representada logaritmicamente.

Stan
fonte
2

Quais são os detalhes técnicos da compensação de exposição para uma imagem subexposta no pós-processamento?

O simples aumento de todos os valores em uma imagem aumentará todos os valores em uma quantidade igual. Essa resposta "linear" é peculiar às imagens digitais.

Não percebemos as coisas dessa maneira e a imagem resultante parecerá antinatural.

A imagem analógica (emulsão de filme) parecia mais natural, pois a resposta de uma emulsão fotográfica se assemelha mais à resposta do sistema visual humano. Foram feitas referências a uma curva em forma de "S". Essa forma característica "S" é uma resposta analógica.

Compensar a diferença entre nossa resposta visual humana proporcional e a resposta digital linear, convida vários meios para harmonizar esteticamente a diferença.

É necessário que haja uma maneira eficaz de fornecer uma compensação proporcional pela diferença. Essa é a tecnicidade.

Stan
fonte