Alguém conhece algum algoritmo ou pode explicar matematicamente como o brilho (EV) é executado no pós-processamento? Ele ajusta o nível de brilho / RBG / contraste para cada pixel? Está relacionado ao histograma?
Quais são os aspectos técnicos da compensação de exposição para uma imagem subexposta no pós-processamento?
EDIT: Nesta pergunta aqui, um link foi postado. Ele tem exemplos de mudar o EV e ele se move para a esquerda / direita. Na resposta de Matt Grumm, ele afirma que cada pixel é "multiplicado" (o que, na minha opinião, indica que o histograma é movido para cima / para baixo).
Alguém pode explicar por que esse é o caso? (Esse EV muda da esquerda para a direita)
post-processing
software
exposure
BBking
fonte
fonte
Respostas:
Sei que ficamos entusiasmados por ter câmeras digitais, mas o fato é que não . Temos câmeras analógicas que possuem um formato de saída digital (e muitos circuitos digitais que também não estão diretamente relacionados à imagem).
Sempre que um sinal analógico é convertido em sinal digital, você introduz um ruído de quantização. Ou seja, é muito improvável que o sinal que entra na conversão corresponda exatamente ao valor do número digital que sai do outro lado - pense nele como erros de truncamento ou arredondamento.
Quando você realiza o pós-processamento em um arquivo de imagem digital, o ruído de quantização adicionado à câmera é "gravado". Não importa com que profundidade de bit você esteja trabalhando no pós, os dados com os quais você trabalha têm os componentes de ruído analógico (bem, quântico) (ruído térmico e de tiro, distorção do amplificador etc.) e o ruído de quantização da saída da câmera. A qualidade dos dados base não é perfeita; portanto, qualquer cálculo feito com base nos dados defeituosos resultará em saída defeituosa. GIGO , como eles dizem.
Na câmera, por outro lado, você tem a oportunidade de amplificar (ou atenuar) o sinal analógico antes da quantização. Isso não ajuda em nada com o ruído no domínio analógico, mas reduz o ruído de quantização em um determinado nível de brilho .
Digamos que você tenha um valor analógico de 4,4 whatchamacallits. Se você fotografar usando ISO 100, nossa hipotética câmera "digital" converterá isso em um valor digital de exatamente 4. Se você optar por aumentar a exposição aparente na publicação, ficará sem trabalhar com a 4, que está truncada. Se você aumentar o ISO na câmera (em menos de um ponto final), esse 4.4 será amplificado por circuitos analógicos antes de ser convertido para digital e poderá resultar em um valor digital 1-maior do que o processamento totalmente digital calcula. Uma diferença de bit único pode não parecer muito, mas quando você começa a acumular todos os erros ao longo do processo, um determinado pixel pode estar muito distante dos valores que deveria ter. Isso é o que é barulho.
(Também existe o fato de que a câmera "conhece" suas próprias características de resposta e pode ser responsável por elas no processamento. O Lightroom, por exemplo, não faz subtração de ruído do sensor baseada em ISO, específica da câmera. As câmeras podem , embora não todos fazem .)
fonte
Essa é a fórmula que você está procurando?
O que basicamente significa que, para cada canal (de cada pixel) dos dados RGB, multiplique-o por 2 ^ EV e, em seguida, prenda-o no valor máximo para seus dados. Para cores de 8 bits, o RGBmax será 255, para cores de 16 bits será 65535 etc.
EV aqui é EV relativo, então EV + 2.0 multiplicará (iluminará) cada pixel por um fator de quatro e EV-2.0 dividirá (escurecer) cada pixel por um fator de quatro.
A fórmula em si não depende do histograma, mas se você precisar decidir qual valor de exposição usar para ajustar a imagem de maneira otimizada, algum tipo de estatística será feita a partir do histograma para calcular o VE.
fonte
dcraw
o-4
comutador para garantir que ele não faça a transformação do log, tente executar uma conversão bruta básica e aplique uma compensação de exposição durante o processo.Nota: a pergunta foi editada, já que a resposta de Stan aborda o que é efetivamente uma pergunta diferente:
Pode ser simples multiplicar todos os valores de pixel (por exemplo, brilho, contraste não é um termo que se aplica a pixels individuais) e aplicar um deslocamento. Se isso for feito após a remoção de degelo, basta multiplicar os valores vermelho, verde e azul pelo mesmo fator.
O processo de compensação de exposição é um pouco mais complexo no contexto da conversão RAW, pois os sensores de câmera são dispositivos lineares inerentes, enquanto a maioria dos conversores RAW aplica uma curva de tom não linear para tentar emular a curva S contrastante que você obtém com o filme.
Portanto, o melhor momento para fazer a compensação da exposição é antes que ela seja aplicada. Isso basicamente significa usar a função EC do seu conversor RAW, não espere até que você exporte o Photoshop, pois a curva não linear quase certamente já será aplicada até então.
A situação é ainda mais complexa, pois alguns conversores RAW * usavam perfis de cores "trançados", que fazem com que o matiz / saturação seja mapeado para diferentes valores, dependendo da intensidade. Isso é feito para produzir cores mais agradáveis à custa da precisão e pode afetar os resultados da compensação de exposição.
Alguns conversores RAW também oferecem ferramentas para recuperar destaques e aumentar as sombras. Eles fazem ajustes locais (ou seja, levam em conta muito mais do que valores de pixels individuais). Se você quiser conhecer os detalhes desses algoritmos, provavelmente terá que esperar e esperar que um desenvolvedor do Lightroom apareça aqui.
* quando digo "alguns conversores RAW", estou basicamente falando sobre o Lightroom / ACR, como esse foi o único que eu estudei, outros conversores RAW avançados provavelmente fazem o mesmo.
fonte
Matematicamente, o brilho de uma matriz (imagem) é afetado globalmente, agindo sobre o valor da função CIE L * da tonalidade do pixel. É uma relação aritmética. Adicione, subtraia, multiplique e divida.
Novamente, matematicamente, uma matriz de transformação (numérica) é encaminhada para a matriz existente em pp. Elas podem ser feitas seletivamente para o sujeito ou para a matriz geral (imagem).
Boa exposição e má exposição são termos arbitrários - desde que o alcance da iluminação do objeto esteja dentro do alcance útil do sensor da câmera. O alcance do assunto pode ser amplo ou estreito ao extremo.
Nota: O histograma é um auxílio visual que representa a distribuição relativa das iluminâncias na imagem. É linear. Não tem nada a ver com exposição, a relação recíproca de intensidade e tempo, sempre representada logaritmicamente.
fonte
Quais são os detalhes técnicos da compensação de exposição para uma imagem subexposta no pós-processamento?
O simples aumento de todos os valores em uma imagem aumentará todos os valores em uma quantidade igual. Essa resposta "linear" é peculiar às imagens digitais.
Não percebemos as coisas dessa maneira e a imagem resultante parecerá antinatural.
A imagem analógica (emulsão de filme) parecia mais natural, pois a resposta de uma emulsão fotográfica se assemelha mais à resposta do sistema visual humano. Foram feitas referências a uma curva em forma de "S". Essa forma característica "S" é uma resposta analógica.
Compensar a diferença entre nossa resposta visual humana proporcional e a resposta digital linear, convida vários meios para harmonizar esteticamente a diferença.
É necessário que haja uma maneira eficaz de fornecer uma compensação proporcional pela diferença. Essa é a tecnicidade.
fonte