Como uma câmera de alta resolução é importante quando a saída é de baixa resolução?

17

A pergunta é inspirada nesta pergunta, que mostra essas figuras .
A resposta aceita sugere que essas fotos foram tiradas por uma câmera de 8x10 e o uso de uma câmera de 8x10 foi confirmado nos comentários.

Minha pergunta é: como você sabe?


Quando visualizadas na página da web, essas imagens têm 496x620 = 0,37 megapixels (ou 720x900 = 0,65 megapixels, se você clicar em "exibição completa").
Portanto, qualquer câmera com uma resolução superior a 0,37 Mpx deve conseguir capturar essas fotos, o que significa praticamente todos os smartphones e webcams do mercado.

Eu sei sobre os sensores Bayer . Mas o pior efeito de um sensor Bayer deve ser reduzir a resolução em um fator de quatro: se você reduzir a escala da imagem em um fator de dois em cada direção, cada pixel de saída conterá dados de pelo menos um sensor de entrada para cada um dos canais R / G / B.
A redução do fator 4 ainda significa que qualquer câmera com resolução acima de 1,5Mpx (em vez dos 0,37Mpx da saída) deve conseguir capturar essas fotos. Ainda estamos falando de praticamente todos os smartphones e a maioria das webcams no mercado.

Eu sei sobre a profundidade de cores . Mas o JPG, o formato que estamos usando para visualizar essas figuras, é 8x3 = 24 bits. E de acordo com a pontuação do DxOMark, existem várias câmeras, incluindo a Sony NEX 7 e Nikon D3200, capazes de capturar 24 bits de cor.
Portanto, mesmo que uma webcam de US $ 10 não consiga capturar as nuances dessas fotos, uma NEX 7 ou D3200 poderá fazê-lo.

Eu sei que a maioria das lentes tem resolução mais baixa do que a maioria dos sensores é capaz. Por exemplo, a Nikkor 85mm f / 1.4G é a lente mais nítida da Nikon, de acordo com o DxOMark , e fornece o equivalente na melhor das hipóteses de resolução de 19Mpx em uma câmera de 24Mpx (a Nikon D3X de quadro completo), enquanto a lente menos nítida possui uma melhor exemplo equivalente a 8Mpx na mesma câmera.
Mas a pior lente em seu banco de dados ainda oferece uma ordem de magnitude maior que o formato de saída desses exemplos.

Eu sei sobre faixa dinâmica. Mas essas imagens controlam a iluminação para que elas não apareçam os destaques nem percam as sombras. Contanto que você esteja em posição de fazer isso, o alcance dinâmico não importa; ele será mapeado para a faixa de saída de 0 a 255 de qualquer maneira.
Em ambos os casos, o DxOMark diz que várias câmeras com sensores full frame ou menores têm um alcance dinâmico melhor que o melhor das câmeras de médio formato.


É isso que eu sei, e não há nada nesses fragmentos da teoria que possa me dizer como é possível distinguir uma câmera de visão 8x10 de um Sony NEX 7 quando você vê o resultado como um JPG de 0,37 Mpx.

Basicamente, tanto quanto eu entendo, deve ser irrelevante quantos megapixels e quanta profundidade de cor o sensor pode capturar, desde que seja pelo menos o tamanho que o formato de saída possa representar.

Ainda assim, não duvido do julgamento da resposta de Stan Rogers. E nunca vi nada parecido, em termos de nitidez percebida, em câmeras com sensores pequenos.

Entendi mal o que significa resolução?

Acho que estou perguntando principalmente sobre a teoria: como uma diferença entre duas resoluções (medida em pixels, lp / mm, profundidade de cor ou qualquer outra coisa) pode ser visível em um formato de exibição com menos resolução que os originais?

Ou, de outra forma: existe algo para me impedir, em princípio, de replicar essas imagens no pixel usando um Sony NEX 7 e US $ 10.000 em iluminação?

jg-faustus
fonte
2
Desde que você obtenha tudo perfeito na sua foto, também não há muita vantagem em fotografar RAW sobre JPEG. Resolução, profundidade de bits e dados RAW tem tudo a ver com tirar o máximo proveito da sua foto! Hoje, pequenas fotos na Web, exibição em retina 4x ou impressão de alta qualidade amanhã.
Henrik
11
Infelizmente, só posso aceitar uma resposta. Matt Grum argumenta com credibilidade que um sensor pequeno, além de iluminação e um pouco de pós-processamento, pode replicar talvez 95% do que vemos nas fotos de Martin Schoeller no tamanho da web (excluindo os efeitos do DoF). Acho que Michael Nielsen argumenta com credibilidade que você pode precisar melhor do que a resolução típica do sistema APS-C para chegar a 100%. E Stan Rogers explica como podemos reconhecer uma câmera de grande formato, mesmo em fotos na Web. Eu sugiro que você lê-los todos :)
jg-faustus

Respostas:

10

É tudo sobre o micro contraste. Observe as postagens sobre aps-c versus full frame e estenda essa diferença para sensores de médio e grande formato.

Quando as diferenças entre o APS-C e os sensores de quadro completo são importantes e por quê?

Seguindo as teorias sobre superamostragem, é melhor amostrar em uma taxa mais alta e depois reduzir a amostra do que amostrar no limite de nyquist desde o início - ou seja. se sua meta final for 640x480, ainda é melhor usar um sensor de 1280x960 do que um sensor de 640x480.

Não importa quantos MPixels você tenha quando os pixels vizinhos dependem um do outro, de qualquer forma, devido ao círculo de confusão ser maior que os pixels no plano do sensor. As lentes têm capacidade limitada para resolver também. Além disso, você deve considerar a "nitidez" da lente em relação à sua abertura, e um sensor maior permite que você se aproxime e diminua a DOF mais estreita, o que significa que você pode capturar ainda mais detalhes - o círculo de confusão é maior, a lente está trabalhando com menos difusão, etc.

E então você tem a "compressão de profundidade" feita pela distância focal da lente que é bastante agressiva nessas fotos, apontando para uma telefoto. O FOV em um sensor pequeno exigiria que você recuasse bastante e abra muito a abertura para obter esse DOF estreito. No entanto, executando os números, com uma câmera full frame você poderia alcançá-lo, a 210 mm, a 2 metros de distância, o F8 daria um DOF de 4 cm e um FOV que leva exatamente o rosto como aquelas fotos.

Em outras palavras: quanto maior o sensor em relação ao objeto, menos a lente precisa trabalhar nos raios de luz para compactá-los em um local apertado. Isso aumenta a clareza da foto e mostra independentemente da distância de visualização (que é o que está sendo simulado ao redimensionar a imagem para uma resolução mais baixa).

Seguindo as discussões sobre aprimoramento e retenção de detalhes por meio do redimensionamento, aqui está uma comparação se assuntos semelhantes são de grande formato versus formato completo e formato grande versus apsc:

Topo: rostos masculinos com tocos de barba. Na resolução do site ao qual você vincula, a barba é processada com pêlos em todo o pixel, mas tudo o que é perdido no mesmo tamanho do exemplo de Matt. Agora as barbas estão difusas. Se virmos a imagem de Matt no mesmo tamanho das fotos de 8x10 no site, poderemos ver uma grande diferença se a cabeça não estiver em foco. Mesmo um sistema aps-c e um sensor menor podem produzir esse resultado (em relação aos detalhes).

Abaixo: comparamos os cílios do rosto feminino em tamanho semelhante ao da página que você mostrou, com o olho em foco de uma câmera aps-c, e a nitidez não trará os poros da pele de volta. Podemos melhorar a percepção dos cílios à custa de uma auréola brilhante ao seu redor.

Agora vemos uma enorme diferença de resolução no "sistema geral" , e a câmera apsc + a lente usada + vista na resolução baixa baixa fornecida não pode renderizar os mesmos detalhes que a câmera 8x10 + aquela lente + a resolução visualizada . Espero que meu argumento esteja mais claro agora.

detalhes

Outra comparação com aps-c, tocos de barba, depois de afiá-los. Embora a troca de pilhas os redimensione, ainda podemos perceber uma diferença de clareza.

apsc

Em conclusão, os outros fatores que você está perguntando além da resolução de pixels são:

  • Resolução total do sistema lp / mm
  • SNR
  • Ampliação da pessoa para o sensor e para a tela em que você a vê na distância especificada, até a projeção de seus olhos na resolução da retina - quanto menor a ampliação (abaixo de 1: 1) em qualquer parte do sistema, maiores as demandas pelos dois fatores acima, que por sua vez são influenciados negativamente pela menor área de projeção.

Você obterá mais detalhes em uma foto macro em escala reduzida do que em uma foto macro em primeiro lugar.

Uma prova final de que a resolução antes da redução é importante.Top: 21MP FF Inferior: 15MP Aps-c com a mesma distância focal da lente / abertura.

Sensor / diferencial de dois tamanhos

Agora redimensionado para igual resolução:

Pequeno

Menor

Menor

Minúsculo

e aplicou um pouco de nitidez para trazer de volta alguns detalhes. O que você vê? um pouco mais de detalhes da câmera 21mp FF visualizada no mesmo tamanho / resolução, o que equivaleria a uma câmera de 3Mp. você não pode contar as linhas na imagem redimensionada, mas a percepção de que são linhas é verdadeira. Quer você queira ou não, é a sua escolha criativa, mas, começando com a resolução mais alta (fornecida pelo sistema total), você tem a opção. Se você não quiser, pode desfocar a imagem antes de redimensionar.

Um experimento final para mostrar a diferença entre um tamanho pequeno, baixa resolução e sensor maior, resolução mais alta, mas redimensionada e afiada para a mesma resolução, mostrada no mesmo tamanho no final - com TODOS OS IGUAIS. Legal, né? Como eu fiz isso? Minha câmera APS-C que eu tiro simula um "sensor de corte" (menor que o meu apc-c) cortando uma imagem da imagem. Então eu me aproximo do assunto para preencher um sensor 4x maior com o mesmo assunto. - como os retratos no sensor de grande formato é basicamente uma foto macro - ficando muito mais perto do que com uma câmera aps-c. Mesma qualidade eletrônica, mesma lente, mesmas configurações, mesma luz.

É assim que fica no pequeno sensor, vamos chamá-lo de "mini aps-cc":

Sensor pequeno

Aqui vemos o "formato grande" (aps-c grande e completo):

aps-c

Aqui vemos muitos detalhes, certo? Mas isso não importa depois que a redimensionamos para uma imagem de 0,016MP e aprimoramos para o mesmo contraste geral, importa?

Tamanho igual de comparação

Mas de fato nós fazemos! Se você ainda não acredita em mim, eu desisto :)

Michael Nielsen
fonte
Uma observação sobre o padrão de labirinto que essas culturas exibem: é o artefato de interpolação bayer comum para a remoção de camadas AHD.
Michael Nielsen
No entanto, a percepção de que é uma matriz de linhas é mais fiel ao original do que ver uma caixa cinza. O mesmo que ver poros na pele, talvez não a quantidade exata da vida real, mas eles estariam lá.
Michael Nielsen
Obrigado, comparações interessantes. Parece que a nitidez / detalhe (ou pelo menos uma ilusão de detalhe) sobrevive a mais downscaling do que eu pensava. Você me deu algo a considerar.
jg-faustus
lembre-se de que as linhas convergentes são um pesadelo para os algoritmos de interpolação e SABEMOS como deve ser, não temos as mesmas suposições sobre os detalhes em uma boa textura de pele, por isso mesmo um ponto se move meio pixel na face que ainda parece impressionante. No menor exemplo acima, ainda percebemos que ele tem linhas até a segunda vertical.
Michael Nielsen
Michael, uma pergunta relacionada - e se o tamanho do sensor for o mesmo? Vou obter melhores resultados de um sensor APS-C com uma resolução nativa de 16 MP, mas reduzimos a amostragem para 8MP, por exemplo, em vez de comprar uma câmera (hipotética) com um sensor ASP-C de 8MP?
Vaddadi Kartick
7

Tanto quanto qualquer outra coisa, a distribuição da câmera de visão era uma profundidade de campo extremamente rasa que não é paralela ao plano do filme. Manter os lábios e os olhos focados em várias das imagens com a postura do sujeito e a profundidade de campo muito superficial (muitas vezes, a testa na linha da mandíbula imediatamente abaixo dos olhos é suave) é impossível sem inclinação.

Há também a natureza dos intervalos fora de foco; é mais típico de uma entrega em tamanho real do que o foco distante. A extensão DoF em direção à câmera é quase igual à extensão em segundo plano, que é o que você esperaria ao abordar a reprodução 1: 1. Em distâncias de trabalho mais normais, seria de esperar uma distribuição de um terço / dois terços da nitidez aparente em torno do plano de foco nítido (um terço do DoF na frente do plano de foco; dois terços atrás). Isso indica um "sensor" consideravelmente maior que o formato APS-C, em tamanho cheio ou mesmo médio. A experiência com os formatos 4x5 e 8x10 me disse que era mais provável que fosse um 8x10 (embora mesmo uma das raras câmeras de formato maior também não estivesse fora de questão), e achei a lente de 210 mm mais provável do que, dizer,

Como Michael Nielsen apontou, há muito "micro contraste" aparente nas imagens, mas até certo ponto você pode fingir isso no pós-processamento, especialmente se o objetivo é renderizar em tamanhos de web. E suponho que você possa até falsificar o DoF e o plano focal se for diligente na criação de um mapa de profundidade com um plano focal gradiente aplicado contra o que seria praticamente um modelo 3D do sujeito e entender a dinâmica de foco de um 8x10 em cerca de 50-60% de reprodução em tamanho natural, mas isso seria muito trabalho. A solução econômica, tanto para o fotógrafo quanto para quem analisa a imagem, seria uma câmera de visão real de 8x10.


fonte
Porém, aumentar o microcontraste no post apresenta artefatos, assim como os algoritmos estão "adivinhando" os detalhes, para que não seja a mesma imagem.
Michael Nielsen
@ Michael, mas em uma reprodução redimensionada, esses podem não ser aparentes para todos os fins? Ou não?
Francesco
Foi "até certo ponto" ambíguo?
Você quer dizer se você afia primeiro e depois redimensiona onde o aprimoramento é eliminado, a menos que a janela do filtro passa-alto seja tão grande que introduza zumbido no quadro? Os detalhes desses retratos são tão incríveis que, se você examinar um corte de pele de 1x50 pixels, parecerá uma imagem binária, que pode facilmente produzir anéis de halo com filtros de nitidez.
Michael Nielsen
3
@MichaelNielsen, ao fazer uma enorme amostra reduzida, é possível introduzir o alias em uma imagem totalmente suave (sem microcontraste) e obter uma imagem com aparência extremamente nítida, sem halos ou outros artefatos de nitidez. Se não fosse para o plano inclinado de foco, você não seria capaz de dizer essas imagens eram de grande formato, olhando para os "detalhes" aparentes
Matt Grum
4

Não, uma câmera de alta resolução realmente não importa quando a saída é de baixa resolução, pelo menos não quando você passa de megapixels de dois dígitos para um quarto de um megapixel. Tome a seguinte imagem:

Redimensionado para a Web, parece ótimo, apesar do rosto do sujeito nem estar em foco! É óbvio quando visualizado a 100% e óbvio na impressão, mas você absolutamente não pode dizer no momento em que foi redimensionado para 2% dos pixels originais e afiado para a Web.

Aqui está outro exemplo: tire uma imagem original massivamente suave, com cerca de 8 megapixels:

Reduza bastante a resolução da Web e aprimore-a, e de repente observe todo o microcontraste!

Uma super amostragem de 2x ajudará definitivamente na resolução e fidelidade de cores das imagens da Bayer. Mas uma imagem da Canon Digital Rebel original (300D) lançada em 2003 redimensionada para 600x400 é uma superamostragem de 5x, em cada direção, o que significa que cada pixel da imagem redimensionada substitui 25 pixels originais. Muito, muito pouco da qualidade desses 25 pixels causará impacto na imagem redimensionada.

O aumento do microcontraste proporcionado por um sistema de formato maior simplesmente não será visível; o macrocontraste que você vê pode ser compensado pelo pós-processamento, quando você tiver tanta resolução para jogar fora os artefatos de nitidez, não será visível.

Se você correspondesse à profundidade de campo, seria extremamente difícil diferenciar uma câmera de visão 10x8 e uma compacta quando redimensionada para menos de 1 megapixel.

Matt Grum
fonte
posso ver o rosto dele no mesmo tamanho dos retratos?
Michael Nielsen
sim quando chego em casa e desenterro os originais!
quer
Eu tenho que discordar da afirmação contundente "uma câmera de alta resolução realmente não importa quando a saída é de baixa resolução". As taxas de superamostragem e ampliação são importantes nos resultados finais (até um certo limite).
Michael Nielsen
11
você está obtendo detalhes agradáveis ​​na imagem pequena exatamente porque fez uma amostragem excessiva muitas vezes. Se você tivesse usado apenas 2x sobre-amostragem com a mesma quantidade de desfoque, não obteria nenhum detalhe da pele. E você exagerou na nitidez, o cabelo dele parece estranho. Além disso, esta foto parece uma imagem típica de baixa qualidade. nada parecido com as imagens que estamos falando, que retém mais detalhes do que um sistema APS-C com uma lente decente pode produzir.
Michael Nielsen
Obrigado pelo exemplo mais recente, parece credível que algo como as imagens vinculadas na pergunta possam ser criadas com um sensor APS-C. @MichaelNielsen Mas esse é o tipo de superamostragem da questão, por exemplo, redução de escala, digamos, uma captura de 16Mpx APS-C para <1Mpx de tamanho da web. Portanto, em termos de superamostragem, por exemplo, a superamostragem de 7x (entrada de 49 pixels para saída de 1 px) pode ser visivelmente melhor que a superamostragem de 5x? Estou inclinado a "provavelmente não", no seu exemplo com as linhas que não vejo muita / nenhuma diferença além da super amostragem 4x.
jg-faustus
1

Ao renderizar uma cena com detalhes finos em uma imagem de baixa resolução, é necessário aplicar a filtragem espacial para remover qualquer conteúdo cuja frequência esteja acima do limite de Nyquist. Ao aplicar a filtragem espacial, existem dois objetivos conflitantes:

  1. O conteúdo cuja frequência espacial é baixa o suficiente para ser mostrado deve ser atenuado o menos possível.

  2. O conteúdo cujas frequências espaciais são semelhantes deve ser atenuado em quantidades aproximadamente iguais.

Para ver onde os objetivos conflitam, imagine uma cena com um padrão de linhas convergentes. Se o espaçamento se aproximar um pouco do limite de Nyquist para a resolução de destino, mas as linhas sempre são separadas o suficiente para serem mostradas com clareza, geralmente será melhor mostrá-las com clareza do que desfocá-las. Se, no entanto, a cena contiver um padrão de linhas convergentes que se aproximam demais para serem distinguíveis, as linhas se tornam gradualmente mais borradas à medida que seu espaçamento se aproxima do limite de resolução seria menos perturbador do que as linhas aparecerem claramente até um ponto em que elas transição acentuada para um cinza sólido.

Em muitos casos, o tipo ideal de filtragem para uma cena dependerá do seu conteúdo e de quais aspectos são interessantes. Capturando uma cena em uma resolução maior do que o seu formato de saída destina irá garantir que toda a informação que pode ser desejado na imagem final será mantida. As informações deverão ser filtradas antes que a imagem possa ser renderizada em uma resolução mais baixa, mas a captura em alta resolução permitirá adaptar os métodos de filtragem exatos para atender às necessidades da cena da melhor maneira possível (e possivelmente usar métodos diferentes para diferentes partes de uma cena). Se alguém pretende renderizar uma imagem final em 640x480, o benefício de capturá-la em 6400x4800 provavelmente não será muito maior do que o proporcionado por 1600x1200, mas pode haver alguns benefícios em subir para cerca de 2,5x.

supercat
fonte