A pergunta é inspirada nesta pergunta, que mostra essas figuras .
A resposta aceita sugere que essas fotos foram tiradas por uma câmera de 8x10 e o uso de uma câmera de 8x10 foi confirmado nos comentários.
Minha pergunta é: como você sabe?
Quando visualizadas na página da web, essas imagens têm 496x620 = 0,37 megapixels (ou 720x900 = 0,65 megapixels, se você clicar em "exibição completa").
Portanto, qualquer câmera com uma resolução superior a 0,37 Mpx deve conseguir capturar essas fotos, o que significa praticamente todos os smartphones e webcams do mercado.
Eu sei sobre os sensores Bayer . Mas o pior efeito de um sensor Bayer deve ser reduzir a resolução em um fator de quatro: se você reduzir a escala da imagem em um fator de dois em cada direção, cada pixel de saída conterá dados de pelo menos um sensor de entrada para cada um dos canais R / G / B.
A redução do fator 4 ainda significa que qualquer câmera com resolução acima de 1,5Mpx (em vez dos 0,37Mpx da saída) deve conseguir capturar essas fotos. Ainda estamos falando de praticamente todos os smartphones e a maioria das webcams no mercado.
Eu sei sobre a profundidade de cores . Mas o JPG, o formato que estamos usando para visualizar essas figuras, é 8x3 = 24 bits. E de acordo com a pontuação do DxOMark, existem várias câmeras, incluindo a Sony NEX 7 e Nikon D3200, capazes de capturar 24 bits de cor.
Portanto, mesmo que uma webcam de US $ 10 não consiga capturar as nuances dessas fotos, uma NEX 7 ou D3200 poderá fazê-lo.
Eu sei que a maioria das lentes tem resolução mais baixa do que a maioria dos sensores é capaz. Por exemplo, a Nikkor 85mm f / 1.4G é a lente mais nítida da Nikon, de acordo com o DxOMark , e fornece o equivalente na melhor das hipóteses de resolução de 19Mpx em uma câmera de 24Mpx (a Nikon D3X de quadro completo), enquanto a lente menos nítida possui uma melhor exemplo equivalente a 8Mpx na mesma câmera.
Mas a pior lente em seu banco de dados ainda oferece uma ordem de magnitude maior que o formato de saída desses exemplos.
Eu sei sobre faixa dinâmica. Mas essas imagens controlam a iluminação para que elas não apareçam os destaques nem percam as sombras. Contanto que você esteja em posição de fazer isso, o alcance dinâmico não importa; ele será mapeado para a faixa de saída de 0 a 255 de qualquer maneira.
Em ambos os casos, o DxOMark diz que várias câmeras com sensores full frame ou menores têm um alcance dinâmico melhor que o melhor das câmeras de médio formato.
É isso que eu sei, e não há nada nesses fragmentos da teoria que possa me dizer como é possível distinguir uma câmera de visão 8x10 de um Sony NEX 7 quando você vê o resultado como um JPG de 0,37 Mpx.
Basicamente, tanto quanto eu entendo, deve ser irrelevante quantos megapixels e quanta profundidade de cor o sensor pode capturar, desde que seja pelo menos o tamanho que o formato de saída possa representar.
Ainda assim, não duvido do julgamento da resposta de Stan Rogers. E nunca vi nada parecido, em termos de nitidez percebida, em câmeras com sensores pequenos.
Entendi mal o que significa resolução?
Acho que estou perguntando principalmente sobre a teoria: como uma diferença entre duas resoluções (medida em pixels, lp / mm, profundidade de cor ou qualquer outra coisa) pode ser visível em um formato de exibição com menos resolução que os originais?
Ou, de outra forma: existe algo para me impedir, em princípio, de replicar essas imagens no pixel usando um Sony NEX 7 e US $ 10.000 em iluminação?
fonte
Respostas:
É tudo sobre o micro contraste. Observe as postagens sobre aps-c versus full frame e estenda essa diferença para sensores de médio e grande formato.
Quando as diferenças entre o APS-C e os sensores de quadro completo são importantes e por quê?
Seguindo as teorias sobre superamostragem, é melhor amostrar em uma taxa mais alta e depois reduzir a amostra do que amostrar no limite de nyquist desde o início - ou seja. se sua meta final for 640x480, ainda é melhor usar um sensor de 1280x960 do que um sensor de 640x480.
Não importa quantos MPixels você tenha quando os pixels vizinhos dependem um do outro, de qualquer forma, devido ao círculo de confusão ser maior que os pixels no plano do sensor. As lentes têm capacidade limitada para resolver também. Além disso, você deve considerar a "nitidez" da lente em relação à sua abertura, e um sensor maior permite que você se aproxime e diminua a DOF mais estreita, o que significa que você pode capturar ainda mais detalhes - o círculo de confusão é maior, a lente está trabalhando com menos difusão, etc.
E então você tem a "compressão de profundidade" feita pela distância focal da lente que é bastante agressiva nessas fotos, apontando para uma telefoto. O FOV em um sensor pequeno exigiria que você recuasse bastante e abra muito a abertura para obter esse DOF estreito. No entanto, executando os números, com uma câmera full frame você poderia alcançá-lo, a 210 mm, a 2 metros de distância, o F8 daria um DOF de 4 cm e um FOV que leva exatamente o rosto como aquelas fotos.
Em outras palavras: quanto maior o sensor em relação ao objeto, menos a lente precisa trabalhar nos raios de luz para compactá-los em um local apertado. Isso aumenta a clareza da foto e mostra independentemente da distância de visualização (que é o que está sendo simulado ao redimensionar a imagem para uma resolução mais baixa).
Seguindo as discussões sobre aprimoramento e retenção de detalhes por meio do redimensionamento, aqui está uma comparação se assuntos semelhantes são de grande formato versus formato completo e formato grande versus apsc:
Topo: rostos masculinos com tocos de barba. Na resolução do site ao qual você vincula, a barba é processada com pêlos em todo o pixel, mas tudo o que é perdido no mesmo tamanho do exemplo de Matt. Agora as barbas estão difusas. Se virmos a imagem de Matt no mesmo tamanho das fotos de 8x10 no site, poderemos ver uma grande diferença se a cabeça não estiver em foco. Mesmo um sistema aps-c e um sensor menor podem produzir esse resultado (em relação aos detalhes).
Abaixo: comparamos os cílios do rosto feminino em tamanho semelhante ao da página que você mostrou, com o olho em foco de uma câmera aps-c, e a nitidez não trará os poros da pele de volta. Podemos melhorar a percepção dos cílios à custa de uma auréola brilhante ao seu redor.
Agora vemos uma enorme diferença de resolução no "sistema geral" , e a câmera apsc + a lente usada + vista na resolução baixa baixa fornecida não pode renderizar os mesmos detalhes que a câmera 8x10 + aquela lente + a resolução visualizada . Espero que meu argumento esteja mais claro agora.
Outra comparação com aps-c, tocos de barba, depois de afiá-los. Embora a troca de pilhas os redimensione, ainda podemos perceber uma diferença de clareza.
Em conclusão, os outros fatores que você está perguntando além da resolução de pixels são:
Você obterá mais detalhes em uma foto macro em escala reduzida do que em uma foto macro em primeiro lugar.
Uma prova final de que a resolução antes da redução é importante.Top: 21MP FF Inferior: 15MP Aps-c com a mesma distância focal da lente / abertura.
Agora redimensionado para igual resolução:
e aplicou um pouco de nitidez para trazer de volta alguns detalhes. O que você vê? um pouco mais de detalhes da câmera 21mp FF visualizada no mesmo tamanho / resolução, o que equivaleria a uma câmera de 3Mp. você não pode contar as linhas na imagem redimensionada, mas a percepção de que são linhas é verdadeira. Quer você queira ou não, é a sua escolha criativa, mas, começando com a resolução mais alta (fornecida pelo sistema total), você tem a opção. Se você não quiser, pode desfocar a imagem antes de redimensionar.
Um experimento final para mostrar a diferença entre um tamanho pequeno, baixa resolução e sensor maior, resolução mais alta, mas redimensionada e afiada para a mesma resolução, mostrada no mesmo tamanho no final - com TODOS OS IGUAIS. Legal, né? Como eu fiz isso? Minha câmera APS-C que eu tiro simula um "sensor de corte" (menor que o meu apc-c) cortando uma imagem da imagem. Então eu me aproximo do assunto para preencher um sensor 4x maior com o mesmo assunto. - como os retratos no sensor de grande formato é basicamente uma foto macro - ficando muito mais perto do que com uma câmera aps-c. Mesma qualidade eletrônica, mesma lente, mesmas configurações, mesma luz.
É assim que fica no pequeno sensor, vamos chamá-lo de "mini aps-cc":
Aqui vemos o "formato grande" (aps-c grande e completo):
Aqui vemos muitos detalhes, certo? Mas isso não importa depois que a redimensionamos para uma imagem de 0,016MP e aprimoramos para o mesmo contraste geral, importa?
Mas de fato nós fazemos! Se você ainda não acredita em mim, eu desisto :)
fonte
Tanto quanto qualquer outra coisa, a distribuição da câmera de visão era uma profundidade de campo extremamente rasa que não é paralela ao plano do filme. Manter os lábios e os olhos focados em várias das imagens com a postura do sujeito e a profundidade de campo muito superficial (muitas vezes, a testa na linha da mandíbula imediatamente abaixo dos olhos é suave) é impossível sem inclinação.
Há também a natureza dos intervalos fora de foco; é mais típico de uma entrega em tamanho real do que o foco distante. A extensão DoF em direção à câmera é quase igual à extensão em segundo plano, que é o que você esperaria ao abordar a reprodução 1: 1. Em distâncias de trabalho mais normais, seria de esperar uma distribuição de um terço / dois terços da nitidez aparente em torno do plano de foco nítido (um terço do DoF na frente do plano de foco; dois terços atrás). Isso indica um "sensor" consideravelmente maior que o formato APS-C, em tamanho cheio ou mesmo médio. A experiência com os formatos 4x5 e 8x10 me disse que era mais provável que fosse um 8x10 (embora mesmo uma das raras câmeras de formato maior também não estivesse fora de questão), e achei a lente de 210 mm mais provável do que, dizer,
Como Michael Nielsen apontou, há muito "micro contraste" aparente nas imagens, mas até certo ponto você pode fingir isso no pós-processamento, especialmente se o objetivo é renderizar em tamanhos de web. E suponho que você possa até falsificar o DoF e o plano focal se for diligente na criação de um mapa de profundidade com um plano focal gradiente aplicado contra o que seria praticamente um modelo 3D do sujeito e entender a dinâmica de foco de um 8x10 em cerca de 50-60% de reprodução em tamanho natural, mas isso seria muito trabalho. A solução econômica, tanto para o fotógrafo quanto para quem analisa a imagem, seria uma câmera de visão real de 8x10.
fonte
Não, uma câmera de alta resolução realmente não importa quando a saída é de baixa resolução, pelo menos não quando você passa de megapixels de dois dígitos para um quarto de um megapixel. Tome a seguinte imagem:
Redimensionado para a Web, parece ótimo, apesar do rosto do sujeito nem estar em foco! É óbvio quando visualizado a 100% e óbvio na impressão, mas você absolutamente não pode dizer no momento em que foi redimensionado para 2% dos pixels originais e afiado para a Web.
Aqui está outro exemplo: tire uma imagem original massivamente suave, com cerca de 8 megapixels:
Reduza bastante a resolução da Web e aprimore-a, e de repente observe todo o microcontraste!
Uma super amostragem de 2x ajudará definitivamente na resolução e fidelidade de cores das imagens da Bayer. Mas uma imagem da Canon Digital Rebel original (300D) lançada em 2003 redimensionada para 600x400 é uma superamostragem de 5x, em cada direção, o que significa que cada pixel da imagem redimensionada substitui 25 pixels originais. Muito, muito pouco da qualidade desses 25 pixels causará impacto na imagem redimensionada.
O aumento do microcontraste proporcionado por um sistema de formato maior simplesmente não será visível; o macrocontraste que você vê pode ser compensado pelo pós-processamento, quando você tiver tanta resolução para jogar fora os artefatos de nitidez, não será visível.
Se você correspondesse à profundidade de campo, seria extremamente difícil diferenciar uma câmera de visão 10x8 e uma compacta quando redimensionada para menos de 1 megapixel.
fonte
Ao renderizar uma cena com detalhes finos em uma imagem de baixa resolução, é necessário aplicar a filtragem espacial para remover qualquer conteúdo cuja frequência esteja acima do limite de Nyquist. Ao aplicar a filtragem espacial, existem dois objetivos conflitantes:
O conteúdo cuja frequência espacial é baixa o suficiente para ser mostrado deve ser atenuado o menos possível.
O conteúdo cujas frequências espaciais são semelhantes deve ser atenuado em quantidades aproximadamente iguais.
Para ver onde os objetivos conflitam, imagine uma cena com um padrão de linhas convergentes. Se o espaçamento se aproximar um pouco do limite de Nyquist para a resolução de destino, mas as linhas sempre são separadas o suficiente para serem mostradas com clareza, geralmente será melhor mostrá-las com clareza do que desfocá-las. Se, no entanto, a cena contiver um padrão de linhas convergentes que se aproximam demais para serem distinguíveis, as linhas se tornam gradualmente mais borradas à medida que seu espaçamento se aproxima do limite de resolução seria menos perturbador do que as linhas aparecerem claramente até um ponto em que elas transição acentuada para um cinza sólido.
Em muitos casos, o tipo ideal de filtragem para uma cena dependerá do seu conteúdo e de quais aspectos são interessantes. Capturando uma cena em uma resolução maior do que o seu formato de saída destina irá garantir que toda a informação que pode ser desejado na imagem final será mantida. As informações deverão ser filtradas antes que a imagem possa ser renderizada em uma resolução mais baixa, mas a captura em alta resolução permitirá adaptar os métodos de filtragem exatos para atender às necessidades da cena da melhor maneira possível (e possivelmente usar métodos diferentes para diferentes partes de uma cena). Se alguém pretende renderizar uma imagem final em 640x480, o benefício de capturá-la em 6400x4800 provavelmente não será muito maior do que o proporcionado por 1600x1200, mas pode haver alguns benefícios em subir para cerca de 2,5x.
fonte