Como capturar a cena exatamente como meus olhos podem ver?

30

Quais configurações da minha câmera DSLR imitarão a cena exatamente como eu posso ver através dos meus olhos nus?

Acho que não é possível obter o contraste e as cores exatamente como meus olhos podem ver, e isso pode variar de pessoa para pessoa. Então, eu estou mais interessado na distância focal da lente. Se alguém puder dar mais informações além da distância focal, ficarei feliz em saber.

Por exemplo, se estou em pé à beira-mar e deseja capturar o nascer do sol, qual deve ser a distância focal para cobrir o ângulo de visão que meus olhos podem ver e para que o tamanho dos objetos na foto seja exatamente como meus olhos percebem isso?

Minha câmera é uma Canon EOS 1000D APS-C. Tenho 50 mm 1,8 e 70-300 mm Sigma, isso pode ser alcançado através desta lente de equipamento? Até agora, não consegui nem fiquei satisfeito com o que vejo e o que recebo.

Sentou
fonte
Você tem um quadro completo (FX) de DSLR de corte (DX, 1.6x)?
Philippe Lavoie
com certeza vou editar minha pergunta, esqueci esse fator. Eu tenho a Canon EOS 1000D, que não é um quadro completo. fator de corte de 1,6x
sáb
1
E a mídia pretendia entregar a foto aos olhos dos outros? Grande ou pequeno? Tela ou papel? ...
mouviciel
Interessante - isso acabou sendo uma forma mais geral de photo.stackexchange.com/questions/8043/… no sentido de que o cérebro de nossos espectadores desempenha um papel importante em suas percepções das fotos. Ótimas respostas aqui.
D. Lambert
1
@mouviviel - A mídia pretende entregar aos meus olhos depois de tirar a foto, Sobre, Tela e papel. Se a tela for calibrada corretamente, acho que podemos esperar quase a mesma coisa na tela em Papel, Basicamente Tela e papel: D
sentou

Respostas:

38

Bem, eu odeio dizer isso a você, mas você não pode emular exatamente seus olhos. Existem algumas razões, deixe-me explicar.

  1. Os seres humanos veem uma resolução muito mais alta na fovia central (parte central dos nossos olhos) do que perto das bordas. As câmeras têm resolução uniforme em todos os lugares.
  2. O alcance dinâmico é tratado de maneira diferente entre câmeras e humanos. Não sei explicar, mas uma cena parece ter um alcance mais dinâmico para um ser humano do que uma câmera, embora tecnicamente uma câmera tenha um alcance mais dinâmico.
  3. Os seres humanos vêem em 3 dimensões.
  4. Os seres humanos mudam seus pontos focais muito rapidamente, a ponto de não percebermos as partes fora de foco da maioria das cenas.
  5. A forma da visão humana é muito diferente de uma fotografia. As fotografias saem retangular normalmente, com alguma dimensão, a visão humana é mais de uma forma curva, embora seja difícil quantificar pela maneira como nosso cérebro gerencia os sinais.

Não obstante tudo isso, deixe-me dizer que depende se você deseja se concentrar em uma área específica ou na cena maior. Se você deseja uma área específica, provavelmente deve ter cerca de 150 mm. Quanto a uma paisagem dramática, algo como um 24 terá todo o seu campo de visão. Um número comummente citado é de 50 mm, o que permitirá ver a parte de maior resolução dos seus olhos e mais alguns, mas não o campo inteiro, e geralmente é um bom compromisso. (Tudo isso pressupõe que você tenha uma câmera com estrutura completa, se o seu for um sensor de corte, divida pelo fator apropriado)

PearsonArtPhoto
fonte
Ok, eu não estava satisfeito com esta situação, onde tirei uma foto do nascer do sol usando 50mm 1,8, o tamanho do sol era muito menor na foto em comparação com o que eu vi de verdade, então acho que vou ter que ajustar minha distância focal 90-100mm para obter o tamanho adequado. Obrigado.
sentou
1
Como eu disse, o olho tem várias regiões de sensibilidade. É um pouco de uma pena que você não pode realmente tirar o FOV e a percepção, é realmente incrível o que os nossos olhos e mente pode fazer, então ...
Pearsonartphoto
1
você esqueceu um: o olho humano possui um campo de visão diferente da imagem gerada pela maioria das câmeras (podem existir câmeras altamente especializadas). Não vemos no formato 4/3 ou 2/3.
jwenting
Além disso, a imagem que você "vê" em seu cérebro é basicamente executada em uma pilha de 1000 filtros, pós-processadores e uma sessão decente de photoshop.
Hobbamok
36

O olho se move

Gostaria de acrescentar à resposta da @Pearsonartphoto, que os olhos humanos não veem uma cena parada. Em vez disso, eles a digitalizam continuamente, ajustando sua “abertura” e focando novamente na digitalização. Então, graças a esse processo de digitalização, podemos perceber :

  • a faixa dinâmica mais alta,
  • uma profundidade de campo infinita,
  • uma cena mais ampla como um todo,
  • muito mais detalhes do que uma "resolução" do olho imóvel pode ver.

Então, o que "vemos" é o resultado do "pós-processamento" de um fluxo de imagens, 30 a 70 imagens por segundo. Veja Movimento ocular .

A câmera está parada

A câmera não pode simular o que o olho vê, porque grande parte do que o olho vê é o nosso processo de ver e pensar sobre a cena, e muito disso acontece no cérebro, não apenas no olho.

Mas você pode tirar fotos que produzam uma certa impressão desejada na pessoa que as vê. E é aí que a arte começa , porque você precisa provocar certos sentimentos em outra pessoa por meio de um objeto colorido plano.

Técnicas de múltiplas imagens

PS Algumas técnicas populares em fotografia digital, na verdade, tentam recuperar mais de várias imagens seqüenciais, como a visão humana. Essas técnicas incluem:

  • costura panorâmica (mosaico de várias imagens para cobrir um ângulo de visão mais amplo e aumentar a resolução),
  • técnicas de fusão de exposição e HDR (empilhamento de várias imagens para aumentar a faixa dinâmica),
  • empilhamento de foco (empilhamento de várias imagens para aumentar a profundidade de campo) (mais) .
sastanina
fonte
Você resumiu bem, de longe a melhor resposta.
labnut
27

Capturando uma imagem exatamente como seus olhos a veem? Não tem problema, mas nem tudo é na câmera, você terá que trabalhar um pouco na postagem. E quase certamente não é o que você realmente deseja.

Primeiro, você precisará de uma lente olho-de-peixe circular que decore muito as fotos com as quais tirar fotos. (Você realmente precisará de várias fotos e de um sistema de visualização com rastreamento ocular embutido que possa inverter imagens à medida que seu olho se move.) Ninguém cria uma lente que funcione tão mal quanto o olho humano (pelo menos, ninguém cria uma assim de propósito e o oferece para venda como uma lente fotográfica); assim, o resto terá que acontecer no correio.

Primeiro, você precisará cortar a imagem na parte superior. Exatamente onde irá variar, mas é aí que sua sobrancelha fica no caminho. Então você precisará executar um localizador de bordas - no Photoshop, o filtro de alívio Sketch-> Bas funcionará bem. Coloque o resultado disso em um conjunto de camadas separado para multiplicar - você o mesclará mais tarde, mas poderá ocultar a camada por enquanto.

Em seguida, selecione uma seção no meio da imagem - cerca de um ou dois por cento da imagem inteira - aplique a seleção em vinte ou trinta pixels e copie essa seleção para uma camada separada.

Agora execute um filtro de desfoque pesado sobre a imagem original. Você quer poder ver as cores, mas nenhum detalhe real. Mesclar a camada de baixo-relevo sobre a imagem borrada. Em seguida, mescle a camada que você criou na seleção. Agora você deve ter uma imagem circular com a parte superior cortada, bordas mal definidas, nenhum detalhe real da imagem na maior parte da imagem, mas com as bordas dos elementos originais clamando por atenção e uma pequena área no meio (aproximadamente dez por cento da largura e altura) em foco relativamente nítido.

Você ainda não terminou. Você precisa criar uma seleção circular com cerca da metade do tamanho da área em foco, logo abaixo e para um lado, sobrepondo um pouco a área de foco. Emplume bem a seleção e preencha-a com preto.

Crie uma nova camada de sobreposição, preencha-a com 50% de cinza e adicione cerca de 10% de ruído gaussiano monocromático, do que produza uma boa desfocagem. Mesclar isso.

Agora você tem uma imagem que se aproxima do que realmente vê com o olho fixo. Na verdade, é muito menos distorcido do que o que seus olhos vêem, mas adicionar todas as pequenas convoluções que acontecem por causa da espessura diferente dos fluidos na superfície do olho a qualquer momento é muito difícil de resolver para este exercício .

Qualquer outra coisa que você pensa que vê vem do seu cérebro, não do seu olho. Aquela mancha negra? Você tem um em cada olho e seu cérebro preenche os dados que faltam. O vasto mar de detalhes? Costura panorâmica no córtex visual. Nitidez de qualquer tipo? Média de várias "exposições". Também temos um sistema de abertura automática e fazemos a "mudança ISO" em tempo real, dependendo do que estamos prestando atenção a qualquer momento (nossa faixa dinâmica estática não é muito diferente do que a câmera captura - fazemos HDR " na postagem ").

O que você deseja é provavelmente capturar o que sua mente vê, não o que seus olhos vêem, e isso é diferente para cada imagem. É por isso que eles fazem todas essas lentes diferentes. Às vezes você quer mostrar um vasto panorama, porque foi o que viu . Mas mesmo com uma paisagem imensa, pode ter sido apenas um pequeno bosque de árvores que chamou sua atenção. Um retrato pode ser um close apertado ou pode envolver todo o ambiente da babá - mais uma vez, tudo depende do que você viu no olho da sua mente, não do que você viu no seu olho real. O mesmo vale para a profundidade de campo - você estava olhando a cena inteira ou apenas prestando atenção a um pequeno detalhe em um contexto maior?

Em outras palavras, essa não é uma pergunta que possa ser respondida diretamente. A resposta é e sempre será "depende". Experimentar. Prática. Conheça suas ferramentas e o que elas fazem e, eventualmente, você saberá exatamente o que precisa fazer para capturar não o que realmente estava lá, mas o que viu. Ansel Adams chamou isso de previsualização e passou muito tempo desenvolvendo um sistema formal que lhe permitiria capturar em filme o que viu com sua mente e seu coração, não com seus olhos.

mattdm
fonte
4
Embora isso possa começar um pouco, acaba sendo uma resposta bonita e maravilhosa. Parabéns.
Lindes
1
Uau, eu me perdi lendo o material do photoshop, então no final foi um bom conselho :) TY.
sentou
2
O que, sem moscas volantes ?!
Junkyardsparkle
O processo do Photoshop é uma excelente descrição do que a qualidade de imagem ruim que o olho realmente vê, corrigida no local. Mas não é fixo e o cérebro une tudo.
doug
10

Um dos problemas com a tentativa de imitar a visão humana em uma fotografia é o campo de visão .

A perspectiva que vemos, que é uma função da distância focal relativa, é basicamente a perspectiva de uma lente de 50 mm em um sensor de quadro completo ou 32 mm em um sensor DX, mas o problema não é a perspectiva, é o campo de visão. Pense na imagem que você vê a 50 mm e agora amplie o campo de visão como faria ao tirar um panorama.

Se você tirasse uma fotografia "humana", veria quase 180 graus na horizontal e aproximadamente 120 graus na vertical, mas ainda assim manteria a perspectiva da distância focal média.

Tome este diagrama bruto do olho (verde) e um sensor SLR digital (azul). Você notará que a distância focal é exatamente a mesma para os dois meios, aproximadamente 17 mm, mas o ângulo em que a retina se estende é muito mais do que o do sensor.

Campo de visão ocular

Ele vê um campo de visão maior, com a mesma distância focal. É por isso que um sensor DX equivale ao campo de visão 1,6 vezes menor que o sensor de 35 mm, mas na mesma distância focal, a perspectiva não muda. Ele simplesmente captura uma área menor da cena.

Os panoramas são uma maneira de emular o campo de visão de algo como o olho humano, mantendo a perspectiva mais plana e realista.


A próxima edição é faixa dinâmica . Uma faixa dinâmica média de sensores de tamanho SLR digital é de aproximadamente 11 pontos de luz. Isso significa que ele pode registrar a diferença entre 11 duplicações na intensidade da luz. 1, 2, 4, 8, 16, 32, etc. Quão precisa é outra história. 14 bits é melhor que 12 e 12 é melhor que 8 bits, mas o analógico é ainda melhor que o digital de 14 bits.

Embora um corpo profissional de quadro completo capaz de capturar até 13 paradas em um bom dia seja considerado impressionante pelos padrões modernos, ele nem chega perto do olho humano.

Às vezes, o olho humano é capaz de distinguir a diferença entre aproximadamente 18 a 20 pontos de intensidade, em uma medida muito grosseira. Isso significa que a sombra preta que sua câmera vê pode ser facilmente vista em detalhes pelo olho humano, ao mesmo tempo que se vê detalhes brilhantes na cena . É aqui que a faixa dinâmica de um sensor digital cai atualmente.

Simplesmente não pode distinguir intensidades de luz tão diferentes ao mesmo tempo. Às vezes é tão ruim que você precisa expor para os destaques ou expor para as sombras e aspirá-las, mesmo quando seus próprios olhos podem ver as duas coisas bem.

O HDR é uma maneira de emular a faixa dinâmica do olho humano, mas ainda é limitado pelos meios em que é visto e pela maneira como é processado.


Outra questão é que, embora seja um passeio no parque para nós, pois nossos cérebros são projetados para ver dessa maneira, apenas a fóvea vê em grandes detalhes. A visão periférica é bastante detalhada, e existe principalmente para ver o movimento, o que pode nos ajudar a identificar que as coisas estão acontecendo ao nosso redor ou nos alertar sobre o perigo e desencadear a resposta de luta ou fuga.

Se você simular isso em uma fotografia, a imagem terá uma pequena área de foco no centro e a imagem ficará rapidamente borrada à medida que você se move em direção às bordas.


Existem outras questões em que ainda não mencionei ou que não conheço, mas acho que, no final das contas, uma fotografia não é para "imitar" a experiência humana, é para capturar um momento, crie uma resposta ou uma emoção, ou para capturar memórias, ou para obter uma grande recompensa de um cliente :)

Nick Bedford
fonte
Então você quer dizer que lente bebê dá melhor ou diz efeito real ao que vemos? porque ele vai se concentrar em um ponto e outras coisas borradas?
sentou
O que você quer dizer?
Nick Bedford
1
Eu suponho que sim. Acho que a verdadeira questão é se você deve ou não fazê-lo. Simulação pura significaria que você borraria a área externa da foto, mas se você conseguisse explodir a foto final para se ajustar à sua visão, então ... sua visão removeria a desfocagem, se é que você me entende.
Nick Bedford
Está bem. Vai experimentar um pouco na próxima vez :)
sáb
0

Seu cérebro pode se ajustar aos sinais provenientes das células sensoriais de luz no seu olho, para que você possa ter uma faixa dinâmica mais alta dos seus olhos do que é possível nas células da câmera. Até que existam sensores de câmera inteligentes que possam desligar um que eles tenham luz suficiente, você se esforçará para obter o alcance necessário.

Eu sugeriria fazer um HDR de uma cena, mas apenas empurrando a exposição inferior e superior um pouco para que ela ainda pareça natural.

Designer023
fonte
Bem, há Prioridade de tom de destaque (como a Canon chama; provavelmente também existe com nomes diferentes para marcas diferentes), mas não é exatamente o que você está falando aqui. Eu adoraria um sensor que de alguma forma teve uma curva de resposta logarítmica per site de fotos depois de ficar a uma certa exposição ...
lindes
0

Bem, por que não colocar a lente de 70 a 200 mm e aplicar zoom até que a imagem no seu lcd tenha o mesmo tamanho da sua visão sem a câmera. A lente lerá em que distância focal você está. Ou apenas use o localizador de visualizações. O estudo detalhado da visão real, da tela LCD e da tela do visor o levará até lá, mas você precisará de um tripé e de pelo menos 10 minutos. Você pode achar que sua configuração é excelente apenas em determinadas distâncias. Ou seja, as três visualizações correspondem satisfatoriamente. Nesse ponto, você pode considerar uma compra de lente. Outra coisa depois da correspondência de escala será a correspondência de tons para o seu olho. As câmeras são péssimas ao ver sombra em geral. Parece uma boa ideia adicionar um filtro de escurecimento neutro e adicionar algumas paradas para compensar, com o objetivo de clarear as sombras enquanto mantém os realces domados. Isso pode fazer com que os destaques não sejam tão "impressionados" enquanto as sombras são completamente negras se a exposição for simplesmente aumentada. Um filtro UV também parece importante. Depois disso, é possível ajustar os recursos de processamento na câmera para ajustar e tornar essas configurações padrão. Eu apenas mencionei aqui o que eu tentaria. Espero que isto ajude.

ADAvestan
fonte
O principal problema para fazer isso é que a aparência de uma imagem é determinada por muito mais do que apenas distância focal e cor, incluindo distância, mídia e condições de visualização. Como foi mencionado em algumas respostas, uma câmera não pode replicar o que é visto pelo olho.
verdades condenadas