HDR e mistura de múltiplas exposições parece muito popular nos dias de hoje. Eu me pergunto, o que os fotógrafos fizeram para resolver problemas de faixa dinâmica?
Por exemplo, eu sei que os filtros GND eram comuns (e ainda são), mas e os casos em que uma montanha estava no meio e um GND a escurecia demais? Essa foto não foi tirada? Ou certas cenas não eram possíveis?
dynamic-range
multiple-exposure
darkroom
graduated-filters
Jonathan Winters
fonte
fonte
Respostas:
O primeiro caso geralmente conhecido de tirar duas exposições diferentes da mesma cena de alta faixa dinâmica e combinar os resultados foi por volta de 1850. Gustave Le Gray fez isso para renderizar paisagens marítimas mostrando o céu e o mar. Le Gray usou um negativo para o céu e outro com uma exposição mais longa para o mar, e combinou os dois em uma imagem positiva. Desde então, a combinação de várias exposições para lidar com amplos intervalos dinâmicos em uma cena vem acontecendo.
Em meados do século XX, esquivar-se e queimar - aumentando ou diminuindo seletivamente a exposição das regiões da fotografia - tornou-se popular. Isso foi feito na câmara escura usando máscaras para alterar o tempo de exposição de diferentes elementos na cena quando a imagem de um negativo foi projetada no papel fotossensível usando um ampliador. Ansel Adams elevou a técnica a uma forma de arte. Tudo o que você precisa fazer é estudar as impressões que ele fez de Moonrise, Hernandez, Novo Méxicopara ver esse desenvolvimento. O negativo foi exposto e desenvolvido em 1941. Adams fez mais de 1.000 impressões conforme as encomendas dos clientes nas próximas quatro décadas. Ele alterou quimicamente o negativo original pelo menos uma vez no final da década de 1950 para escurecer o céu. As impressões consideradas mais definitivas não foram produzidas até meados da década de 1960.
Adams também desenvolveu o Sistema de Zonapara definir a exposição. As câmeras não foram construídas em metros até meados do século XX. Antes disso, um medidor de luz era usado, ou o fotógrafo trabalhava apenas com o conhecimento de qual luminância um objeto em particular teria sob diferentes condições de iluminação. Adams dividiu a capacidade de alcance de luminância de seus negativos em zonas e media os objetos mais brilhantes e mais escuros para os quais desejava manter os detalhes. Ele então ajustaria a exposição para que as áreas mais brilhantes e mais escuras da cena caíssem na zona específica que planejava desenvolver com a capacidade mais brilhante / mais escura dos papéis com os quais costumava fazer impressões. Mesmo assim, um negativo pode registrar uma faixa mais dinâmica do que uma impressão pode reproduzir. Daí a necessidade de controlar o contraste com os tempos de exposição / desenvolvimento e evitar e queimar.
Filmes diferentes também tinham características diferentes em relação à faixa dinâmica e ao contraste. A quantidade de tempo usada para desenvolver o filme exposto também afetou os destaques e as sombras de maneira diferente, assim como a quantidade de tempo usada para fazer a impressão.
fonte
As limitações com as quais trabalhamos e as técnicas para contornar essas limitações (quando isso era possível) diferiam consideravelmente, dependendo da cena que você estava tentando capturar e do filme que estava usando.
Filtros de densidade neutra graduados e divididos faziam parte do jogo, certamente, mas eram apenas o começo. Mas entenda que esse "começo" pode se estender, no caso de um fotógrafo de paisagem usando uma câmera de grande formato (8x10 ou maior) e um filme de transparência colorida, até a criação de um gel ND recortado personalizado (criado ao rastrear o imagem no vidro fosco da câmera), que seria colada a um prato e usada em uma sombra de lente de compêndio (às vezes chamada de "caixa fosca") na frente da lente. Lembre-se, esses eram os tipos obsessivos que criaram imagens para os mercados de calendário, quebra-cabeças e livros de mesa de café - eles tendem a fazer uma dúzia ou duas fotos espetaculares a cada ano, aparecendo no mesmo local por semanas a fio, esperando por tudo ser exatamente certo, e indo para casa sem tirar uma foto com mais frequência do que não.
No começo, havia uma composição de imagem - algo que nós, da geração Photoshop, costumamos dar por garantido, e supomos que é uma coisa nova. (Se entendermos que isso foi feito no passado, tendemos a considerá-lo um truque de efeitos especiais, ou em termos de imagens surreais como as criadas por Jerry Uelsmann.) O fato é que é quase necessário em nos primeiros dias, uma vez que os pratos ou negativos de papel eram sensíveis apenas à luz azul. Como a exposição para outras coisas que não o céu dependia da captura de quantidades minúsculas de luz azul refletidas por coisas que não eram azuis, não era possível criar uma imagem que tivesse céu edetalhe do solo. Se a placa tivesse uma sensibilidade equivalente, por exemplo, ao ISO 1 para coisas terrestres, também teria uma sensibilidade equivalente ao ISO 64 para o céu da luz do dia, o que colocaria o céu em torno de 8 pontos mais brilhantes que os tons médios da paisagem em o melhor dos tempos. Então você tinha uma escolha: céu branco ou exposições separadas. (E se você for fazer exposições separadas, por que não apenas ter uma biblioteca de céus bonitos e dramáticos à mão, não é?)
O filme ortocromático (sensível ao violeta, azul, verde e amarelo) diminuiu, mas não resolveu, o problema do céu. Quando o filme pan-cromático em preto e branco (sensível em todo o espectro visual) apareceu, a natureza do problema mudou completamente. Não era mais necessário aceitar a perda total do céu como "exatamente como as coisas são", uma vez que se tornou possível capturar o céu e o solo na mesma exposição. E isso, mais do que qualquer outra coisa, coloca a noção de composição de imagem em segundo plano na maioria das mentes.
Com o filme panorâmico em preto e branco, suas escolhas são quase ilimitadas. Se as áreas muito brilhantes da sua imagem puderem ser isoladas por cores (como um céu azul), você poderá usar um dos filtros de bloqueio de banda para reduzir seletivamente a parte do espectro. É por isso que as pessoas usavam filtros como os filtros K2, # 25 e # 29 - todos eles bloqueiam a luz de comprimento de onda curto (azul e violeta) em graus variados, o que poderia fornecer qualquer coisa, desde um céu detalhado, mas plausível, até algo realmente dramático. (O K2 quase pode ser considerado um filtro de correção de contraste.) Você também pode usar um filtro de densidade neutra dividido ou graduado (ou um filtro de cores dividido, dependendo do efeito que deseja obter).
A maior ferramenta do arsenal, no entanto, foi a manipulação de contraste no desenvolvimento. Desenvolver por um período mais curto resulta em um negativo fino e com baixo contraste, e desenvolver resultados mais longos em um negativo denso e com alto contraste. Com uma exposição "adequada", qualquer um deles estragará a imagem. Mas se você deliberadamente superexpor o negativo e subdesenvolver, você acaba com um negativo que tem densidade normal e contraste abaixo do normal. (Da mesma forma, se você subexpor e desenvolver demais, obtém um negativo de densidade normal com um contraste muito alto.) Com esse conhecimento em mãos, você pode rapidamente chegar a uma regra geral que diz: exponha as sombras e desenvolva para os destaques . Isso requer medição, geralmente com um medidor de ponto ( não medição de incidentes) para avaliar os valores absolutos das sombras e os valores relativos dos realces.
O sistema de zonas é uma maneira de sistematizar esse processo. Através de testes, é possível desenvolver conjuntos de combinações de exposição / desenvolvimento para vários filmes que acomodam várias faixas de contraste, para que possam ser impressos em um papel padrão. O sistema de zona "real" é uma imagem imagem por imagem e é realmente adequado apenas para filmes em folha (ou rolos que são gravados inteiramente sob um conjunto de condições); o "procedimento operacional padrão" para os atiradores de filme em rolo era encontrar uma boa receita N-1 e confiar nas alterações do grau de contraste do papel para compensar a diferença entre os negativos.
Assim como no HDR, isso resulta em um trabalho pela metade. É muito bom que você tenha conseguido colocar tudo em uma imagem, mas o resultado é simples e desinteressante até que seja mapeado por tom. (E realmente é; veja a apresentação do espaço de eventos da B&H da Chip Forelli Impressão direta em impressão final: a história não contada para muito mais informações.) É aí que entra a esquiva e a queima - é preciso colocar de volta todos os detalhes interessantes que a criação de um imagem de baixo contraste minimizada. Obviamente, isso é muito trabalhoso - trabalho que você pode diminuir um pouco combinando o Zone System com filtragem de cores seletiva e filtros ND graduados / divididos no momento da captura.
O filme colorido mudou o jogo novamente. Além de possuir (principalmente) latitude inerentemente mais baixa que a P&B panromática, também é muito mais propenso a falhas de reciprocidade. Esta não é a simples falha de reciprocidade dos filmes em preto e branco, onde você precisa fazer exposições longas ainda mais. Qualquer um pode lidar com issoe exposições longas com filme colorido não são muito mais complicadas do que com filme em preto e branco. Não, há uma interação complexa entre os desenvolvedores de prata e cores, juntamente com as diferentes profundidades e espessuras das emulsões de cores, o que significa que há apenas um pequeno intervalo de tempos de desenvolvimento em que as relações entre as várias cores são quase viáveis. Para filmes de slides, um empurrão ou puxão de uma parada é drástico e já começa a mostrar mudanças de cor. Para negativos de cores, você começa a realizar mudanças de cores não corrigíveis em cerca de 1 1/3 pontos acima e 1 2/3 pontos abaixo (dependendo do filme; os Kodaks "consumidores" eram mais bem-comportados, mas tinham ataques contra eles em outras áreas). E mesmo quando você conseguia obter o contraste certo, pressionar e puxar faria coisas com a saturação que talvez não se ajustassem à imagem.
Então, como lidamos com o contraste com a cor? Bem, começamos escolhendo o filme certo para o trabalho. Um fotógrafo de casamento, por exemplo, gravitava em direção a algo como o Vericolor III Professional (VPS) da Kodak, que tinha uma ampla latitude e baixa saturação, e poderia (se usado com cuidado) capturar confortavelmente o vestido da noiva e o smoking do noivo e tornar a boa pele tons. Mas o VPS resultaria em uma paisagem bastante agradável. Por isso, usamos filmes com um pouco mais de saturação e "soco", geralmente escolhendo filmes diferentes para diferentes circunstâncias (você não conseguia superar o Kodachrome em busca de folhagem de outono, mas o Velvia, da Fuji, venceu seis vezes desde domingo por uma exuberante vegetação de primavera). Usamos filtros ND divididos / graduados onde eles faziam sentido. Como a impressão aumentou novamente o contraste (especialmente para cibachromes / ilocromos feitos de transparências), usamos a máscara de contraste para derrubá-lo novamente quando apropriado. E - talvez o mais importante - aprendemos a fazer sacrifícios estratégicos quando eles faziam sentido. Se os negros precisavam bloquear ou os brancos precisavam explodir para fazer a melhor imagem, foi o que fizemos. Não era uma tragédia naqueles dias. (Também não estou convencido de que seja uma tragédia hoje.)
fonte
Eu mesmo não me preocupei. Os GNDs funcionam, você pode girá-los e empilhá-los conforme necessário. Você pode criá-los para formas específicas, se quiser algo especial usando géis ou filmes semitransparentes etc. etc.
Mas, no geral, as pessoas estavam mais interessadas no resultado, e não se interessavam em espiar os pixels e processar números para julgar uma imagem por meios numéricos quanto à sua "qualidade", em vez de verificar se o resultado foi agradável aos olhos.
fonte
Na verdade, havia um produto químico que você poderia adicionar ao processamento para aumentar o intervalo de parada, mas eu não consigo me lembrar como era chamado
fonte