Um objetivo na maioria das fotografias é apresentar uma cena semelhante à que uma pessoa que estivera lá naquele momento teria visto. Mesmo quando trabalha intencionalmente fora disso, a visão humana é a base de fato.
Portanto, parece útil saber algo sobre como o olho se compara à nossa tecnologia de câmera. Deixando de lado as questões de psicologia, reconhecimento de padrões e percepção de cores o máximo possível (porque essa é uma pergunta separada!), Como o olho humano se compara a uma câmera e lente modernas?
Qual é a resolução efetiva? Campo de visão? Abertura máxima (e mínima)? Equivalência ISO? Faixa dinâmica? Temos algo equivalente à velocidade do obturador?
Quais estruturas são diretamente análogas às partes de uma câmera e lente (digamos, pupila e íris) e que características são exclusivamente humanas (ou encontradas nas câmeras, mas não na biologia)?
fonte
Respostas:
O olho humano é realmente péssimo em comparação com as lentes das câmeras modernas.
O sistema visual humano , por outro lado, ultrapassa em muito qualquer sistema de câmera moderno (lente, sensor, firmware).
O olho humano é apenas afiado no centro. De fato, é apenas nítido em um local muito, muito pequeno, conhecido como fóvea , que é um local cujo diâmetro é inferior a um por cento do nosso ângulo de visão total. Portanto, temos alguma suavidade séria nos cantos.
O cérebro humano é capaz de corrigir isso, no entanto. Ele instrui o olho a fazer movimentos muito rápidos em toda a cena, de modo que a parte afiada no meio se movimente. O cérebro então tem uma incrível estabilização de imagem no corpo, porque leva todos esses movimentos rápidos e os une para criar uma cena nítida - bem, pelo menos todas as partes em que os olhos pousaram enquanto corriam serão nítidas.
O olho humano é bastante sensível à luz, mas em níveis de pouca luz não há informações sobre cores disponíveis. Além disso, a parte afiada no centro (a fóvea) é menos sensível à luz.
Tecnicamente, é porque o olho possui photosites separados chamados cones para as três cores (vermelho, verde, azul) e outro tipo diferente de photosite chamado bastonetes que captura apenas preto e branco, mas é muito mais eficiente.
O cérebro une tudo isso para criar uma excelente imagem em cores durante o dia, mas mesmo quando está muito, muito escuro, surge uma imagem suave e incolor feita por todas as hastes.
O olho possui apenas um elemento de lente e produz uma terrível aberração cromática na forma de franjas roxas.
Na verdade, essa margem é toda nos comprimentos de onda muito curtos da luz. O sistema visual humano é menos sensível a esses azuis e violetas. Além disso, é capaz de corrigir a franja que existe de algumas maneiras. Primeiro, porque o sistema de visão humana é apenas nítido no meio, e é aí que há a menor aberração cromática. E segundo, porque nossa resolução de cores é (fora da fóvea) muito menor que nossa resolução de brilho, e o cérebro não tende a usar azul ao calcular o brilho.
Podemos ver em três dimensões. Isso ocorre em parte porque temos dois olhos, e o cérebro pode fazer cálculos surpreendentes relacionados à convergência entre eles. Mas também é mais avançado que isso; além do "efeito 3D" obtido da visão estéreo, o cérebro também pode reconstruir cenas em três dimensões, mesmo quando se olha para uma foto bidimensional da cena. É porque entende pistas como oclusão, sombras, pistas de perspectiva e tamanho e usa tudo isso para montar a cena como um espaço 3D. Quando olhamos para uma foto de um longo corredor, podemos ver que o corredor se estende para longe de nós, embora não tenhamos visão estéreo, porque o cérebro entende a perspectiva.
fonte
(Com muita ajuda do artigo da Wikipedia )
Nossos olhos são um sistema de duas lentes, o primeiro sendo o olho externo e o segundo sendo uma lente dentro do olho. Nossos olhos têm uma distância focal fixa, de cerca de 22 a 24 mm. Temos uma resolução significativamente mais alta perto do centro do que nas bordas. A resolução varia significativamente de acordo com a localização da imagem, mas é de cerca de 1,2 par de minutos / arco na região central. Temos cerca de 6-7 milhões de sensores, portanto, temos 6-7 megapixels, mas eles são um pouco diferentes. O padrão dos detectores de cores não é muito uniforme, existem diferentes recursos de detecção de cores no centro em comparação com a visão periférica. O campo de visão é de cerca de 90 graus do centro.
Um ponto interessante é que o olho humano nunca forma um "instantâneo" completo, mas é mais um sistema contínuo. Pode ser muito difícil dizer isso, porque nossos cérebros são muito bons em corrigir isso, mas nosso sistema é mais uma abordagem de vazamento da fotografia, um pouco, mas não exatamente semelhante a uma câmera de vídeo digital.
A lente "Normal" é geralmente escolhida para representar a área principal do foco humano, explicando assim suas diferenças.
As câmeras possuem diferentes tipos de sensores, mas geralmente são espalhadas de maneira bastante uniforme ao redor do sensor. O sensor está sempre plano (o sensor humano é curvo), potencialmente causando distorções na borda. É difícil obter a resolução no mesmo formato que a visão humana e depende um pouco da lente, mas pode-se dizer com segurança que o olho humano tem mais resolução no centro do foco, mas menos nas áreas periféricas.
fonte
O Pixiq tem um artigo muito interessante sobre o assunto, lançado há alguns dias: http://web.archive.org/web/20130102112517/http://www.pixiq.com/article/eyes-vs-cameras
Eles falam sobre a equivalência ISO, foco, abertura, velocidade do obturador, etc ... Está sujeito a discussão, mas ainda é interessante de ler.
O olho em si é uma boa peça de tecnologia, mas o cérebro faz grande parte do trabalho na montagem das peças. Por exemplo, podemos perceber uma faixa dinâmica muito grande, mas isso ocorre principalmente porque o cérebro reúne as diferentes regiões sem que percebamos. O mesmo para a resolução, o olho tem boa resolução no centro, mas realmente apresenta um desempenho ruim em qualquer outro lugar. O cérebro reúne os detalhes para nós. O mesmo para as cores, só percebemos as cores no centro, mas o cérebro nos engana, armazenando em cache as informações das cores quando elas ficam fora do escopo central.
fonte
Deixe-me fazer uma pergunta de volta para você: Qual é a taxa de bits e a profundidade de bits de um disco de vinil?
As câmeras são dispositivos projetados para, o mais fielmente possível, reproduzir a imagem projetada em seu CCD. Um olho humano é um dispositivo evoluído cujo objetivo é simplesmente melhorar a sobrevivência. É bastante complexo e geralmente se comporta de forma contra-intuitiva. Eles têm muito poucas semelhanças:
Os fotorreceptores da retina
O olho em si não é notável. Temos milhões de fotorreceptores, mas eles fornecem entradas redundantes (e ambíguas ao mesmo tempo!) Ao nosso cérebro. Os fotorreceptores de bastão são altamente sensíveis à luz (especialmente no lado azulado do espectro) e podem detectar um único fóton. Na escuridão, eles operam muito bem em um modo chamado visão escotópica. À medida que fica mais brilhante, como durante o crepúsculo, as células do cone começam a acordar. As células cônicas requerem no mínimo 100 fótons para detectar a luz. Nesse brilho, tanto as células dos bastonetes quanto as cônicas estão ativas, em um modo chamado visão mesópica. As células-tronco fornecem uma pequena quantidade de informações sobre cores no momento. À medida que fica mais brilhante, as células das hastes saturam e não podem mais funcionar como detectores de luz. Isso é chamado de visão fotópica, e apenas as células cônicas funcionarão.
Os materiais biológicos são surpreendentemente reflexivos. Se nada fosse feito, a luz que passasse pelos nossos fotorreceptores e atingisse a parte de trás do olho refletiria em ângulo, criando uma imagem distorcida. Isso é resolvido pela camada final de células na retina, que absorve a luz usando melanina. Em animais que exigem ótima visão noturna, essa camada é intencionalmente reflexiva, de modo que os fótons que perdem os fotorreceptores têm a chance de atingi-los no caminho de volta. É por isso que os gatos têm retinas reflexivas!
Outra diferença entre uma câmera e o olho é onde os sensores estão localizados. Em uma câmera, eles estão localizados imediatamente no caminho da luz. Nos olhos, tudo está ao contrário. O circuito da retina está entre a luz e os fotorreceptores, portanto, os fótons devem passar por uma camada de todos os tipos de células e vasos sanguíneos, antes de finalmente atingir uma haste ou cone. Isso pode distorcer ligeiramente a luz. Felizmente, nossos olhos se calibram automaticamente, para que não fiquemos presos a um mundo com vasos sanguíneos vermelhos brilhantes jorrando para frente e para trás!
O centro do olho é onde ocorre toda a recepção de alta resolução, com a periferia progressivamente ficando menos e menos sensível aos detalhes e mais e mais daltônico (embora mais sensível a pequenas quantidades de luz e movimento). Nosso cérebro lida com isso movendo rapidamente os olhos em um padrão muito sofisticado para nos permitir obter o máximo de detalhes do mundo. Uma câmera é realmente semelhante, mas, em vez de usar um músculo, ela coleta cada receptor CCD, por sua vez, em um padrão de varredura rápida. Essa varredura é muito, muito mais rápida que nosso movimento sacádico, mas também é limitada a apenas um pixel de cada vez. O olho humano é mais lento (e a digitalização não é progressiva e exaustiva), mas pode levar muito mais de uma vez.
Pré-processamento realizado na retina
A retina em si realmente faz bastante pré-processamento. O layout físico das células é projetado para processar e extrair as informações mais relevantes.
Embora cada pixel em uma câmera tenha um mapeamento 1: 1 do pixel digital sendo armazenado (pelo menos para uma imagem sem perdas), as hastes e cones em nossa retina se comportam de maneira diferente. Um único "pixel" é na verdade um anel de fotorreceptores chamado campo receptivo. Para entender isso, é necessário um entendimento básico dos circuitos da retina:
Os principais componentes são os fotorreceptores, cada um deles conectado a uma única célula bipolar, que por sua vez se conecta a um gânglio que atinge o cérebro através do nervo óptico. Uma célula ganglionar recebe entrada de várias células bipolares, em um anel chamado campo receptivo central. O centro, se o anel e a área circundante do anel se comportarem como opostos. A luz que ativa o centro excita a célula do gânglio, enquanto a luz que ativa o surround a inibe (um campo no centro e fora do ambiente). Também existem células ganglionares para as quais isso é revertido (descentralizado, circundante).
Essa técnica melhora drasticamente a detecção e o contraste das bordas, sacrificando a acuidade no processo. No entanto, a sobreposição entre os campos receptivos (um único fotorreceptor pode atuar como entrada para várias células ganglionares) permite que o cérebro extrapole o que está vendo. Isso significa que as informações direcionadas ao cérebro já estão altamente codificadas, a ponto de uma interface cérebro-computador conectada diretamente ao nervo óptico ser incapaz de produzir qualquer coisa que possamos reconhecer. É codificado dessa maneira porque, como outros já mencionaram, nosso cérebro fornece recursos incríveis de pós-processamento. Como isso não está diretamente relacionado aos olhos, não vou detalhar muito sobre eles. O básico é que o cérebro detecta linhas individuais (arestas), depois seus comprimentos, sua direção de movimento, cada uma nas áreas subseqüentes do córtex,fluxo ventral e dorsal , que servem para processar cor e movimento de alta resolução, respectivamente.
A fovea centralis é o centro do olho e, como outros já apontaram, é de onde vem a maior parte da nossa acuidade. Ele contém apenas células cônicas e, ao contrário do restante da retina, possui um mapeamento 1: 1 para o que vemos. Um único fotorreceptor de cone se conecta a uma única célula bipolar que se conecta a uma única célula ganglionar.
As especificações do olho
O olho não foi projetado para ser uma câmera; portanto, não há como responder a muitas dessas perguntas da maneira que você desejar.
Em uma câmera, há uma precisão bastante uniforme. A periferia é tão boa quanto o centro, por isso faz sentido medir uma câmera pela resolução absoluta. O olho, por outro lado, não é apenas não um retângulo, mas diferentes partes do olho enxergam com precisão diferente. Em vez de medir a resolução, os olhos são mais frequentemente medidos em VA . Um 20/20 VA é médio. Um VA 20/200 o torna legalmente cego. Outra medida é o LogMAR , mas é menos comum.
Ao considerar os dois olhos, temos um campo de visão horizontal de 210 graus e um campo de visão vertical de 150 graus. 115 graus no plano horizontal são capazes de visão binocular. No entanto, apenas 6 graus nos fornecem uma visão de alta resolução.
Normalmente, a pupila tem 4 mm de diâmetro. Seu alcance máximo é de 2 mm ( f / 8,3 ) a 8 mm ( f / 2,1 ). Ao contrário de uma câmera, não podemos controlar manualmente a abertura para ajustar coisas como exposição. Um pequeno gânglio atrás do olho, o gânglio ciliar, ajusta automaticamente a pupila com base na luz ambiente.
Você não pode medir isso diretamente, pois temos dois tipos de fotorreceptores, cada um com sensibilidade diferente. No mínimo, somos capazes de detectar um único fóton (embora isso não garanta que um fóton que atinja nossa retina atinja uma célula de haste). Além disso, não ganhamos nada olhando para algo por 10 segundos; portanto, exposição extra significa pouco para nós. Como resultado, o ISO não é uma boa medida para esse fim.
Uma estimativa in-the-ballpark dos astrofotógrafos parece ser de 500-1000 ISO, com o ISO da luz do dia sendo tão baixo quanto 1. Mas, novamente, essa não é uma boa medida para aplicar aos olhos.
O alcance dinâmico do olho em si é dinâmico, à medida que diferentes fatores entram em cena para a visão escotópica, mesópica e fotópica. Isso parece ser bem explorado em Como a faixa dinâmica do olho humano se compara à das câmeras digitais? .
O olho humano é mais como uma câmera de vídeo. Ele pega tudo de uma vez, processa e envia para o cérebro. O equivalente mais próximo à velocidade do obturador (ou FPS) é o CFF , ou Critical Fusion Frequency, também chamado de Flicker Fusion Rate. Isso é definido como o ponto de transição em que uma luz intermitente de aumento da frequência temporal se funde em uma única luz sólida. O CFF é mais alto em nossa periferia (e é por isso que às vezes você pode ver o lampejo de velhas lâmpadas fluorescentes apenas se você as observar indiretamente), e é mais alto quando está claro. Sob luz forte, nosso sistema visual tem um CFF de cerca de 60. Na escuridão, pode chegar a 10.
Esta não é a história toda, porque muito disso é causado pela persistência visual no cérebro. O olho em si tem um CFF mais alto (embora eu não possa encontrar uma fonte no momento, pareço me lembrar de estar na ordem de 100), mas nosso cérebro confunde tudo para diminuir a carga de processamento e nos dar mais tempo analisar um estímulo transitório.
Tentando comparar uma câmera e os olhos
Olhos e câmeras têm propósitos completamente diferentes, mesmo que pareçam fazer superficialmente a mesma coisa. As câmeras são intencionalmente construídas em torno de suposições que facilitam certos tipos de medição, enquanto que nenhum plano desse tipo entrou em jogo para a evolução do olho.
fonte