Quais configurações da minha câmera DSLR imitarão a cena exatamente como eu posso ver através dos meus olhos nus?
Acho que não é possível obter o contraste e as cores exatamente como meus olhos podem ver, e isso pode variar de pessoa para pessoa. Então, eu estou mais interessado na distância focal da lente. Se alguém puder dar mais informações além da distância focal, ficarei feliz em saber.
Por exemplo, se estou em pé à beira-mar e deseja capturar o nascer do sol, qual deve ser a distância focal para cobrir o ângulo de visão que meus olhos podem ver e para que o tamanho dos objetos na foto seja exatamente como meus olhos percebem isso?
Minha câmera é uma Canon EOS 1000D APS-C. Tenho 50 mm 1,8 e 70-300 mm Sigma, isso pode ser alcançado através desta lente de equipamento? Até agora, não consegui nem fiquei satisfeito com o que vejo e o que recebo.
fonte
Respostas:
Bem, eu odeio dizer isso a você, mas você não pode emular exatamente seus olhos. Existem algumas razões, deixe-me explicar.
Não obstante tudo isso, deixe-me dizer que depende se você deseja se concentrar em uma área específica ou na cena maior. Se você deseja uma área específica, provavelmente deve ter cerca de 150 mm. Quanto a uma paisagem dramática, algo como um 24 terá todo o seu campo de visão. Um número comummente citado é de 50 mm, o que permitirá ver a parte de maior resolução dos seus olhos e mais alguns, mas não o campo inteiro, e geralmente é um bom compromisso. (Tudo isso pressupõe que você tenha uma câmera com estrutura completa, se o seu for um sensor de corte, divida pelo fator apropriado)
fonte
O olho se move
Gostaria de acrescentar à resposta da @Pearsonartphoto, que os olhos humanos não veem uma cena parada. Em vez disso, eles a digitalizam continuamente, ajustando sua “abertura” e focando novamente na digitalização. Então, graças a esse processo de digitalização, podemos perceber :
Então, o que "vemos" é o resultado do "pós-processamento" de um fluxo de imagens, 30 a 70 imagens por segundo. Veja Movimento ocular .
A câmera está parada
A câmera não pode simular o que o olho vê, porque grande parte do que o olho vê é o nosso processo de ver e pensar sobre a cena, e muito disso acontece no cérebro, não apenas no olho.
Mas você pode tirar fotos que produzam uma certa impressão desejada na pessoa que as vê. E é aí que a arte começa , porque você precisa provocar certos sentimentos em outra pessoa por meio de um objeto colorido plano.
Técnicas de múltiplas imagens
PS Algumas técnicas populares em fotografia digital, na verdade, tentam recuperar mais de várias imagens seqüenciais, como a visão humana. Essas técnicas incluem:
fonte
Capturando uma imagem exatamente como seus olhos a veem? Não tem problema, mas nem tudo é na câmera, você terá que trabalhar um pouco na postagem. E quase certamente não é o que você realmente deseja.
Primeiro, você precisará de uma lente olho-de-peixe circular que decore muito as fotos com as quais tirar fotos. (Você realmente precisará de várias fotos e de um sistema de visualização com rastreamento ocular embutido que possa inverter imagens à medida que seu olho se move.) Ninguém cria uma lente que funcione tão mal quanto o olho humano (pelo menos, ninguém cria uma assim de propósito e o oferece para venda como uma lente fotográfica); assim, o resto terá que acontecer no correio.
Primeiro, você precisará cortar a imagem na parte superior. Exatamente onde irá variar, mas é aí que sua sobrancelha fica no caminho. Então você precisará executar um localizador de bordas - no Photoshop, o filtro de alívio Sketch-> Bas funcionará bem. Coloque o resultado disso em um conjunto de camadas separado para multiplicar - você o mesclará mais tarde, mas poderá ocultar a camada por enquanto.
Em seguida, selecione uma seção no meio da imagem - cerca de um ou dois por cento da imagem inteira - aplique a seleção em vinte ou trinta pixels e copie essa seleção para uma camada separada.
Agora execute um filtro de desfoque pesado sobre a imagem original. Você quer poder ver as cores, mas nenhum detalhe real. Mesclar a camada de baixo-relevo sobre a imagem borrada. Em seguida, mescle a camada que você criou na seleção. Agora você deve ter uma imagem circular com a parte superior cortada, bordas mal definidas, nenhum detalhe real da imagem na maior parte da imagem, mas com as bordas dos elementos originais clamando por atenção e uma pequena área no meio (aproximadamente dez por cento da largura e altura) em foco relativamente nítido.
Você ainda não terminou. Você precisa criar uma seleção circular com cerca da metade do tamanho da área em foco, logo abaixo e para um lado, sobrepondo um pouco a área de foco. Emplume bem a seleção e preencha-a com preto.
Crie uma nova camada de sobreposição, preencha-a com 50% de cinza e adicione cerca de 10% de ruído gaussiano monocromático, do que produza uma boa desfocagem. Mesclar isso.
Agora você tem uma imagem que se aproxima do que realmente vê com o olho fixo. Na verdade, é muito menos distorcido do que o que seus olhos vêem, mas adicionar todas as pequenas convoluções que acontecem por causa da espessura diferente dos fluidos na superfície do olho a qualquer momento é muito difícil de resolver para este exercício .
Qualquer outra coisa que você pensa que vê vem do seu cérebro, não do seu olho. Aquela mancha negra? Você tem um em cada olho e seu cérebro preenche os dados que faltam. O vasto mar de detalhes? Costura panorâmica no córtex visual. Nitidez de qualquer tipo? Média de várias "exposições". Também temos um sistema de abertura automática e fazemos a "mudança ISO" em tempo real, dependendo do que estamos prestando atenção a qualquer momento (nossa faixa dinâmica estática não é muito diferente do que a câmera captura - fazemos HDR " na postagem ").
O que você deseja é provavelmente capturar o que sua mente vê, não o que seus olhos vêem, e isso é diferente para cada imagem. É por isso que eles fazem todas essas lentes diferentes. Às vezes você quer mostrar um vasto panorama, porque foi o que viu . Mas mesmo com uma paisagem imensa, pode ter sido apenas um pequeno bosque de árvores que chamou sua atenção. Um retrato pode ser um close apertado ou pode envolver todo o ambiente da babá - mais uma vez, tudo depende do que você viu no olho da sua mente, não do que você viu no seu olho real. O mesmo vale para a profundidade de campo - você estava olhando a cena inteira ou apenas prestando atenção a um pequeno detalhe em um contexto maior?
Em outras palavras, essa não é uma pergunta que possa ser respondida diretamente. A resposta é e sempre será "depende". Experimentar. Prática. Conheça suas ferramentas e o que elas fazem e, eventualmente, você saberá exatamente o que precisa fazer para capturar não o que realmente estava lá, mas o que viu. Ansel Adams chamou isso de previsualização e passou muito tempo desenvolvendo um sistema formal que lhe permitiria capturar em filme o que viu com sua mente e seu coração, não com seus olhos.
fonte
Um dos problemas com a tentativa de imitar a visão humana em uma fotografia é o campo de visão .
A perspectiva que vemos, que é uma função da distância focal relativa, é basicamente a perspectiva de uma lente de 50 mm em um sensor de quadro completo ou 32 mm em um sensor DX, mas o problema não é a perspectiva, é o campo de visão. Pense na imagem que você vê a 50 mm e agora amplie o campo de visão como faria ao tirar um panorama.
Se você tirasse uma fotografia "humana", veria quase 180 graus na horizontal e aproximadamente 120 graus na vertical, mas ainda assim manteria a perspectiva da distância focal média.
Tome este diagrama bruto do olho (verde) e um sensor SLR digital (azul). Você notará que a distância focal é exatamente a mesma para os dois meios, aproximadamente 17 mm, mas o ângulo em que a retina se estende é muito mais do que o do sensor.
Ele vê um campo de visão maior, com a mesma distância focal. É por isso que um sensor DX equivale ao campo de visão 1,6 vezes menor que o sensor de 35 mm, mas na mesma distância focal, a perspectiva não muda. Ele simplesmente captura uma área menor da cena.
Os panoramas são uma maneira de emular o campo de visão de algo como o olho humano, mantendo a perspectiva mais plana e realista.
A próxima edição é faixa dinâmica . Uma faixa dinâmica média de sensores de tamanho SLR digital é de aproximadamente 11 pontos de luz. Isso significa que ele pode registrar a diferença entre 11 duplicações na intensidade da luz. 1, 2, 4, 8, 16, 32, etc. Quão precisa é outra história. 14 bits é melhor que 12 e 12 é melhor que 8 bits, mas o analógico é ainda melhor que o digital de 14 bits.
Embora um corpo profissional de quadro completo capaz de capturar até 13 paradas em um bom dia seja considerado impressionante pelos padrões modernos, ele nem chega perto do olho humano.
Às vezes, o olho humano é capaz de distinguir a diferença entre aproximadamente 18 a 20 pontos de intensidade, em uma medida muito grosseira. Isso significa que a sombra preta que sua câmera vê pode ser facilmente vista em detalhes pelo olho humano, ao mesmo tempo que se vê detalhes brilhantes na cena . É aqui que a faixa dinâmica de um sensor digital cai atualmente.
Simplesmente não pode distinguir intensidades de luz tão diferentes ao mesmo tempo. Às vezes é tão ruim que você precisa expor para os destaques ou expor para as sombras e aspirá-las, mesmo quando seus próprios olhos podem ver as duas coisas bem.
O HDR é uma maneira de emular a faixa dinâmica do olho humano, mas ainda é limitado pelos meios em que é visto e pela maneira como é processado.
Outra questão é que, embora seja um passeio no parque para nós, pois nossos cérebros são projetados para ver dessa maneira, apenas a fóvea vê em grandes detalhes. A visão periférica é bastante detalhada, e existe principalmente para ver o movimento, o que pode nos ajudar a identificar que as coisas estão acontecendo ao nosso redor ou nos alertar sobre o perigo e desencadear a resposta de luta ou fuga.
Se você simular isso em uma fotografia, a imagem terá uma pequena área de foco no centro e a imagem ficará rapidamente borrada à medida que você se move em direção às bordas.
Existem outras questões em que ainda não mencionei ou que não conheço, mas acho que, no final das contas, uma fotografia não é para "imitar" a experiência humana, é para capturar um momento, crie uma resposta ou uma emoção, ou para capturar memórias, ou para obter uma grande recompensa de um cliente :)
fonte
Seu cérebro pode se ajustar aos sinais provenientes das células sensoriais de luz no seu olho, para que você possa ter uma faixa dinâmica mais alta dos seus olhos do que é possível nas células da câmera. Até que existam sensores de câmera inteligentes que possam desligar um que eles tenham luz suficiente, você se esforçará para obter o alcance necessário.
Eu sugeriria fazer um HDR de uma cena, mas apenas empurrando a exposição inferior e superior um pouco para que ela ainda pareça natural.
fonte
Bem, por que não colocar a lente de 70 a 200 mm e aplicar zoom até que a imagem no seu lcd tenha o mesmo tamanho da sua visão sem a câmera. A lente lerá em que distância focal você está. Ou apenas use o localizador de visualizações. O estudo detalhado da visão real, da tela LCD e da tela do visor o levará até lá, mas você precisará de um tripé e de pelo menos 10 minutos. Você pode achar que sua configuração é excelente apenas em determinadas distâncias. Ou seja, as três visualizações correspondem satisfatoriamente. Nesse ponto, você pode considerar uma compra de lente. Outra coisa depois da correspondência de escala será a correspondência de tons para o seu olho. As câmeras são péssimas ao ver sombra em geral. Parece uma boa ideia adicionar um filtro de escurecimento neutro e adicionar algumas paradas para compensar, com o objetivo de clarear as sombras enquanto mantém os realces domados. Isso pode fazer com que os destaques não sejam tão "impressionados" enquanto as sombras são completamente negras se a exposição for simplesmente aumentada. Um filtro UV também parece importante. Depois disso, é possível ajustar os recursos de processamento na câmera para ajustar e tornar essas configurações padrão. Eu apenas mencionei aqui o que eu tentaria. Espero que isto ajude.
fonte