Qual é a diferença entre “HDR falso” e HDR de exposição real e com bracketing?

10

Quando comecei a aprimorar minhas habilidades em fotografia de paisagem, deparei-me com a questão polarizadora (trocadilhos) da fotografia HDR. Mais especificamente, me deparei com uma postagem de blog bem escrita intitulada " É um" Efeito "do Lightroom HDR, realmente HDR? ". Para citar a postagem:

Vi este post outro dia no 500px (link: http://500px.com/photo/8023755 ) e isso me fez pensar. O fotógrafo, José Barbosa (que, a propósito, é um trabalho fabuloso), escreveu “No HDR” ao lado de sua foto. Mas a foto (pelo menos para mim) parece uma foto HDR. (...) Pesquisei um pouco os metadados da foto dele e vi vários trabalhos de pincel de ajuste feitos com o Clarity (basicamente o controle deslizante de efeitos HDR no Lightroom). E nos comentários da publicação de 500px, o próprio fotógrafo escreveu "processando no Lightroom e no Viveza 2". (...)

Meu ponto (e pergunta para você) é se HDR (isso não é realmente HDR), ainda é HDR? O HDR simplesmente não se tornou um efeito? Como Black & White ou o efeito de processamento cruzado. Ainda precisamos de 3, 5 ou 7 fotos entre colchetes, processadas em um programa como o Photomatix, para classificar uma imagem como uma foto HDR oficial? Ou o HDR é simplesmente o efeito de destacar mais detalhes nas sombras e nos destaques (e talvez um pouco de aparência surreal / surreal).

Parece que tenho a mesma pergunta que o autor: Qual é realmente a diferença entre esses efeitos de "hdr falso" adicionados por meio do ajuste de clareza do lightroom, juntamente com uma recuperação de sombra / destaque em oposição ao HDR "real" envolvendo exposições entre colchetes em + / - n EV? Existe ruído extra no método "falso"? Existe alguma diferença (perceptível)? Em uma nota semelhante, há algum motivo para tirar uma imagem hdr se pudermos usar a recuperação de sombra / destaque para expor uniformemente a cena inteira?

rubikscube09
fonte

Respostas:

22

Qual é a diferença entre “HDR falso” e HDR de exposição real e com bracketing?

A única diferença é quão ampla ou restrita você decide definir o termo HDR (High Dynamic Range Imaging). Você usa o termo mais amplo, como historicamente é usado há mais de 150 anos, para fazer referência a técnicas usadas para exibir uma cena com faixa dinâmica mais alta que a faixa dinâmica da mídia de exibição? Ou você insiste em uma definição muito estreita que usa técnicas que existem há apenas algumas décadas para argumentar que a única definição legítima de HDR é uma versão mapeada em tom de 8 bits de um mapa de luz de ponto flutuante de 32 bits criado por combinando várias exposições entre colchetes? É isso mesmo.

HDR como o termo é comumente usado hoje em dia é apenas uma forma de imagem de alta faixa dinâmica (HDRI) que vem ocorrendo desde pelo menos a década de 1850.

Gustave Le Gray fez várias exposições com diferentes valores de exposição para criar paisagens marítimas que usavam o céu brilhante de uma placa de vidro negativa e o mar e a costa mais escuros de outra.

O sistema de zona ao fotografar e desenvolvimento e mapeamento de tom realizada na câmara escura na metade do século 20 foi levantado para uma forma de arte por Ansel Adams e outros como eles usaram o desenvolvimento de vezes e esquivando e queima de impressões para reduzir a faixa dinâmica total de um cena em que os papéis fotográficos que eles estavam usando eram capazes de exibir.

No campo da fotografia digital, existem várias técnicas usadas para representar uma cena com alta faixa dinâmica usando um meio, como um monitor ou impressão de computador, que não é capaz de um contraste tão grande entre as partes mais brilhantes e mais escuras de uma cena como a própria cena contém. O que muitas pessoas querem dizer quando dizem que HDR é apenas uma dessas técnicas entre muitas.

Embora longe de ser o único legítimo, o entendimento mais comum hoje do termo HDRfoi o que evoluiu das idéias introduzidas pela primeira vez em 1993 que resultaram em uma teoria matemática de imagens expostas de maneira diferente do mesmo assunto, publicada em 1995 por Steve Mann e Rosalind Picard. Ele cria um mapa de luz de alto alcance dinâmico a partir de várias imagens digitais expostas em valores diferentes, usando apenas operações globais de imagem (em toda a imagem). O resultado geralmente é uma "imagem" de ponto flutuante de 32 bits que nenhum monitor ou impressora é capaz de renderizar. Em seguida, ele deve ser mapeado por tom, reduzindo o contraste geral e preservando o contraste local para caber na faixa dinâmica do meio de exibição. Isso geralmente leva a artefatos nas transições entre áreas de altos valores de luminância e áreas de baixos valores de luminância. (Mesmo quando você abre um arquivo 'bruto' de 12 ou 14 bits no seu aplicativo de foto no computador, o que você vê na tela é uma renderização de 8 bits do arquivo bruto desmembrado, não o arquivo monocromático real filtrado pela Bayer 14 arquivo de bits. À medida que você altera as configurações e os controles deslizantes, os dados "brutos" são remapeados e renderizados novamente em 8 bits por canal de cor).

Quando as técnicas descritas por Mann e Picard foram aplicadas pela primeira vez nos principais aplicativos de imagem no nível do consumidor, esses aplicativos geralmente exigiam que as imagens estivessem no formato jpeg. Um pouco mais tarde, se você quiser se tornar realmente exótico, poderá encontrar um programa que permita usar TIFFs. Frequentemente, os usuários pegam um único arquivo bruto, criam uma série de jpegs a partir do arquivo único com algo como -2, 0, +2 diferenças de exposição / brilho e os combinam usando o programa HDR. Mesmo um arquivo bruto de 12 bits pode conter tanto alcance dinâmico quanto uma série de -2, 0, +2 jpegs. Um arquivo bruto de 14 bits pode conter as informações equivalentes às de uma série de -3, 0, +3 de jpegs. Apenas recentemente, a maioria dos aplicativos HDR, com base na criação de mapas de luz de ponto flutuante, permitiu o uso de dados brutos do arquivo como ponto de partida.

No uso mais amplo dos termos HDR (ou HDRI ), também estão incluídos outros processos que não envolvem mapas de luminância de 32 bits e a necessidade de mapeamento de tons. Combinar diferentes áreas de diferentes exposições da mesma cena, seja por meio de um 'recortar e colar' físico como Le Gray fez mais de 150 anos atrás ou por meio de aplicativos de imagem digital modernos que usam camadas, é uma maneira. Outras técnicas, como fusão de exposição ou mistura digitalfaça ajustes globais digitalmente de uma maneira que não exija o mesmo tipo de mapeamento de tons que um mapa de luz de ponto flutuante de 32 bits. Como mencionado anteriormente, muitas das técnicas usadas na câmara escura para produzir impressões a partir de filmes expostos no século 20 eram um meio de exibir cenas com uma faixa dinâmica muito ampla usando papel fotográfico que tinha a capacidade de uma faixa dinâmica mais baixa que o filme negativo usado para capturar a cena. O mesmo vale para essas variadas técnicas digitais.

Até mesmo convertendo um arquivo bruto de 14 bits, em que os dados de cada pixel têm apenas um valor de luminância, mas não cores reais, e usando algoritmos de desmosaicing para interpolar um valor de 8 bits por canal de cor vermelho, verde e azul para cada pixel com base em nos diferentes valores de luminância de pixels adjacentes que são filtrados usando uma máscara Bayer com padrões alternados de vermelho, verde e azul pode ser considerado HDRI , especialmente quando curvas de tom de formato irregular são aplicadas aos valores RGB resultantes.

Michael C
fonte
5

Na minha opinião, é tão simples assim: Uma foto HDR é uma foto em que você tenta exibir os detalhes em todas as partes de uma cena com uma alta faixa dinâmica. Afinal, é o que o nome "HDR" diz por si só.

Agora, o que é uma alta faixa dinâmica? É quando as partes sombrias da imagem são muito mais escuras do que as partes brilhantes da imagem. Historicamente, tirava-se várias fotos com diferentes exposições para capturar os detalhes em todas as partes da cena, porque as câmeras não tinham a capacidade de capturar uma alta faixa dinâmica. Atualmente, as câmeras podem capturar facilmente 14 pontos de exposição (o que significa que os detalhes no tom mais escuro são 2 ^ 14 vezes menos luz física do que os tons mais brilhantes que a câmera pode capturar) (por exemplo: a Nikon D750 possui 14,5 pontos de alcance dinâmico ) Isso é muito, e em mais situações do que antes o suficiente para obter o mesmo efeito de uma "foto HDR" usando várias exposições. Em resumo, as câmeras se tornaram melhores na captura de grandes intervalos, e, portanto, a necessidade de várias fotos de diferentes exposições caiu, mas isso não faz com que não seja HDR. Para concluir, a foto em 500px que você vinculou é definitivamente uma foto HDR, pois você pode ver muitos detalhes em todas as partes da imagem para uma cena com originalmente muita faixa dinâmica.

Martijn Courteaux
fonte
1

se pudermos usar a recuperação de sombra / destaque para expor uniformemente a cena inteira

Isso depende da faixa dinâmica da cena que você está tentando capturar e da faixa dinâmica que o sensor é capaz de capturar.

Se você mal conseguir detalhes nas sombras quando expõe, para não destacar os destaques, você precisa de várias exposições.

Se você puder obter detalhes suficientes nas sombras (com níveis de ruído mínimos ou aceitáveis) e também preservar os realces, poderá ficar satisfeito em capturar e ajustar uma única foto.

D. Jurcau
fonte
0

Minha resposta será uma forma prática e experimental de entender.

  1. Vá para o local como cidade com prédio e a rua onde você pode olhar diretamente para o sol ou o céu no dia de sol ou para ir para o local onde, por exemplo, há uma floresta e você também pode ver o sol ou o céu. céu.

  2. Olhe (usando seus próprios olhos) para os prédios ou as árvores.

  3. Olhe para o céu ou preste atenção ao sol (não olhe diretamente para o sol).

Você pode observar como os olhos estão se adaptando. Você pode ver as árvores e o céu.

  1. Leve a sua câmera quando tiver a opção de visualização ao vivo, você pode ligá-la.

  2. Focalize sua câmera nos mesmos pontos que você olhou.

Você verá que a câmera não pode efetivamente em uma e a única exposição obtém a visão do céu e dos objetos mais escuros. Mesmo se você fotografar a cena com um tipo de configuração de exposição média, há lugares que serão pretos e alguns que serão brancos (subaturados e super saturados). Mesmo se você tentar reduzir localmente ou aumentar a exposição no software especializado (existem muitos), não haverá como tirar a forma e as cores de brancos e pretos.

É a realidade. Os sensores atuais não são tão avançados quanto os olhos. Por uma questão de arte, também é o recurso desejado, usado nas fotografias Low key e High key.

Vamos continuar o experimento.

  1. Se você pode tirar algumas fotos para obter mais informações e depois mesclá-las no software HDR posteriormente, combinará todas as informações de todas as fotos.

  2. O melhor é fotografar mais imagens com menor passo EV, quando a cena é estática. Se houver objetos em movimento, deve haver um tipo de troca entre o número de tiros e o passo EV.

Dependendo da situação, você pode fotografar de 3 imagens +/- 1EV ou 3 com + / 2EV até 9 ou mais fotos +/- 0,5EV ou mesmo +/- 2EV.

Importante também é como você altera o EV. Basicamente, a maneira mais popular é aumentar ou diminuir o tempo do obturador. Com alguns limites, pode-se usar alterações ISO para obter o mesmo, mas com altos valores ISO, as imagens são mais barulhentas. Alterar a abertura dificulta a mesclagem das imagens, e os efeitos são interessantes (eu diria artístico ou conceitual). Obviamente, pode-se usar filtros ND, para estender a própria faixa EV - tente usar alguns extremos como o filtro ND 3.0.

Finalmente, quando o conjunto de imagens estiver bem preparado e com uma ampla variedade de EVs, o resultado do HDR será incrível e não há como falsificá-lo a partir de uma única imagem, pois a imagem única terá definitivamente menos informações.

Comentários finais.

Esse tipo de cena pode ser capturado usando o filtro de gradiente, mas o HDR é mais geral, especialmente quando a borda entre os locais claros e escuros não é linear.

Eu recomendo usar o tripé para qualquer experimento com HDR :-).

Seweryn Habdank-Wojewódzki
fonte
0

Há um equívoco de "HDRI"

Uma imagem de alto alcance dinâmico tem mais alcance dinâmico do que uma imagem normal. Parecia uma explicação esfarrapada, mas é isso que é.

Aqui estão algumas animações que eu fiz explicando o que é um Hdri: http://www.otake.com.mx/Apuntes/Imagen/EnviromentMaps/Index.html#HighDynamicRangeImages

O equívoco é que uma parte do processo de manipulação dessas imagens, chamada de mapeamento de tons, é a mesma que a própria imagem Hdri. Não é. Uma imagem Hdri realmente contém mais informações. Exterior ensolarado e interiores escuros juntos.

Para poder ver essas informações novamente em um monitor normal, a imagem Hdr precisa ser "remapeada". Uma imagem mapeada por tom tem um tipo específico de contraste. Não é um contraste geral, mas um contraste em zonas adjacentes. Agora você pode ver nuvens contrastadas e interiores escuros contrastados, por exemplo.

O ponto é que você pode tirar uma foto normal (sem bracketing envolvido) e mapeá-la, para ter a aparência de "hdri".

Aqui estão três brotos. Um deles é modelado em tom a partir de um conjunto de 3 fotos entre colchetes (hdri real, mas agora em tom em uma imagem de 8 bits)

O segundo é um tom formado a partir de uma única sessão.

O terceiro é apenas o tiro único normal, mas movendo muito os níveis, para revelar algumas informações adicionais no céu que não vimos antes.

O ponto é que uma foto normal pode ser manipulada, esquivar e queimar para obter uma aparência semelhante e contrastada em uma foto.

Aqui estão as fotos originais entre colchetes A usada para (2) e (3) é a Ev0:

Algumas informações estão escondidas lá. Mas quando processado pode ficar em faixas, porque você tem informações limitadas nos pixels. Para evitar faixas, é melhor se você tiver mais informações, mais níveis de tons de luz e mais níveis de sombras ... É por isso que você capturou as imagens entre colchetes.

O ponto é semelhante a este post: Qual é o objetivo de capturar imagens de 14 bits e editar em monitores de 8 bits? Mais níveis de informação são melhores na edição de imagens.

Rafael
fonte