Fotografar em resolução RAW mais baixa usando a câmera com sensor de corte imita as qualidades das câmeras full frame?

12

Não estou falando de mudanças na distância focal.

Eu já li muitos posts que dizem que na câmera full frame a densidade de pixels é menor em comparação com a câmera com sensor de corte e, portanto, captura mais luz e, portanto, possui melhor desempenho ISO e maior alcance dinâmico. Então, se eu mudar pela câmera do sensor de corte para fotografar em uma resolução mais baixa, isso equivalerá a uma melhor densidade de pixels e imitará o desempenho de um quadro completo (ou formato médio) ou sempre fotografará na resolução máxima e reduzirá o tamanho?

--EDIT: 1--
Eu tenho uma Canon 60D e tenho 3 opções para tamanhos de imagem RAW (RAW, M-RAW e S-RAW). Se o RAW é apenas um despejo dos sensores da câmera, como podem ser três tamanhos diferentes? A câmera também reduz a escala de imagens RAW?

Viv
fonte
2
Vivek - leia esta pergunta: photo.stackexchange.com/q/3419/1024 . De acordo com @whuber (e o artigo ao qual ele se vincula), os RAWs menores são de fato algum tipo de agregação dos sentidos individuais, como o que Stan descreve em sua resposta, mas é feito mais em hardware do que em hardware.
ysap 27/09/11
(A página ysap possui links para cobrir a parte de mraw / sraw da pergunta.)
Por favor, leia meu perfil
Vou ler e comentar o documento do ysap.
Viv Viv

Respostas:

7

Como você possui uma Canon, os modos RAW inferiores, mRAW e sRAW, UTILIZAM TODOS OS pixels do sensor disponíveis para produzir um resultado mais rico sem a necessidade de interpolação de camadas. O formato de saída real, embora ainda esteja contido em um arquivo de imagem .cr2 Canon RAW, é codificado em um formato Y'CbCr, semelhante a muitos formatos de vídeo suspenso. Ele armazena informações de luminância para cada pixel COMPLETO (2x2 quad de 1 vermelho, 1 azul e 2 pixels verdes) e cada canal de crominância é derivado de dados de meio pixel (1x2 par de 1 vermelho + 1 verde ou 1 azul + 1 verde) .

Não sei exatamente quais são as diferenças específicas de leitura e codificação de hardware de baixo nível entre mRAW e sRAW; no entanto, de um modo geral, quanto menor o formato de saída, mais informações de entrada de pixel de sensor você pode usar para cada pixel de saída. A pequena quantidade de interpolação presente no m / sRAW é discutível, pois os dois formatos interpolam muito menos do que o RAW nativo. Também deve ser observado que nem o mRAW nem o sRAW são formatos "RAW" reais no sentido normal ... os dados do sensor são processados ​​e convertidos em outra coisa antes de serem salvos em um arquivo .cr2.

Para obter mais detalhes sobre os formatos derivados do YUV e o Canon sRAW, consulte minha resposta aqui: Por que o espaço de cores xvYCC não está sendo absorvido pelas fotografias?

Em "Entendendo o que é armazenado em um arquivo .CR2 da Canon RAW":

O formato sRaw (para "RAW pequeno") foi introduzido com a 1D Mark III em 2007. É uma versão menor da imagem RAW.

Para a 1D Mark III, a 1Ds Mark III e a 40D (todas com a Digic III), o tamanho do sRaw é exatamente 1/4 (um quarto) do tamanho RAW. Podemos, portanto, supor que cada grupo de 4 "pixels de sensor" seja resumido em 1 "pixel" para o sRaw.

Com a 50D e a 5D Mark II (com o chip Digic IV), o RAW de 1/4 do tamanho ainda está lá (sRaw2) e um RAW de metade do tamanho também está aparecendo: sRaw1. Com o 7D, o raw de meio tamanho é chamado mraw (a mesma codificação que sraw1), 1/4 de raw é chamado sraw (como o sraw2).

o JPEG sem perdas sRaw é sempre codificado com o componente de 3 cores (nb_comp) e 15 bits.

O código JPEG do Dcraw foi modificado pela primeira vez (8.79) para lidar com sRaw devido ao valor h = 2 do primeiro componente (fundo cinza na tabela). RAW normal sempre tem h = 1. Começando com o 50D, temos v = 2 em vez de v = 1 (laranja na tabela). O Dcraw 8.89 é a primeira versão para lidar com isso e com o sraw1 de 50d e 5D Mark II.

"h" é o fator de amostragem horizontal e "v" o fator de amostragem vertical. Especifica quantas unidades de dados horizontais / verticais são codificadas em cada MCU (unidade codificada mínima). Veja T-81, página 36.

3.2.1 Formato sRaw e sRaw2

h = 2 significa que os dados descompactados conterão 2 valores para o primeiro componente, 1 para a coluna n e 1 para a coluna n + 1. Com os outros 2 componentes, sraw descomprimido e sraw2 (todos com h = 2 & v = 1), sempre possuem 4 valores elementares

[y1 y2 xz] [y1 y2 xz] [y1 y2 xz] ...
(y1 e y2 para o primeiro componente)

Cada "pixel" nas imagens sRAW e mRAW contém quatro componentes ... um componente Y 'dividido (y1 e y2), bem como um x (azul de crominância) e z (vermelho de crominância). Todos os quatro componentes (de uma perspectiva de imagem de 1/2, sRAW1 / mRAW) têm uma altura de coluna de 2 (h) e uma largura de 1 (v). Isso indica que o valor de Luminância (Y ') é composto por um quad FULL 2x2 pixel ... ou duas colunas de 2x1 pixel armazenadas em y1 e y2.

As referências abaixo não parecem indicar isso especificamente, então estou especulando um pouco aqui, no entanto, com o sRAW2 (1/4 bruto), acredito que as informações de luminância seriam derivadas de um bloco de pixels 4x4, onde h = 4 e v = 2. A codificação de crominância se tornaria mais complexa em uma imagem de tamanho 1/4, pois o filtro de cores em camadas no sensor não está organizado em colunas vermelhas e azuis. Não tenho certeza se colunas de altura 2x1 alternadas são processadas para cada componente Cr e Cb, ou se alguma outra forma de interpolação é executada. Uma coisa é certa ... a interpolação dos dados de origem é sempre maior que os dados de saída e nenhuma sobreposição (como na interpolação normal de camadas) ocorre até onde eu sei.

Finalmente, sRAW1 / mRAW e sRAW / sRAW2 são compactados usando um algoritmo de compactação sem perdas. Essa é uma distinção crítica entre esses formatos e JPEG, que também usa uma codificação do tipo ycc. O JPEG realiza compactação com perdas, tornando impossível restaurar os pixels de volta à sua representação original exata. Os formatos s / mRAW da Canon podem realmente ser restaurados de volta aos dados originais de imagem de 15 bits de precisão total.

Referências:

jrista
fonte
8

Em teoria, seria possível se a câmera usasse a estratégia certa para reduzir o tamanho da imagem.

Como você observou, nas câmeras atuais com sensores de corte, a imagem não processada permanece a mesma, independentemente do tamanho JPEG definido. A imagem JPEG é simplesmente dimensionada. Isso pode reduzir um pouco a aparência do ruído, mas a redução se deve ao algoritmo de dimensionamento da imagem (você não pode colocar tantos pixels pontilhados na imagem menor quanto na versão em tamanho normal). É mais provável, no entanto, que você seja capaz de fazer pelo menos o mesmo, se não melhor, se fizer a redução de ruído e se escalar após o fato.

Existe uma estratégia que produzirá uma verdadeira redução de ruído. Algumas partes traseiras de médio formato de alta resolução (como a série PhasePlus SensorPlus) usam uma estratégia chamada pixel binning , onde grupos de sensores adjacentes são tratados como um sensor muito maior e sua carga cumulativa é lida no sensor. Isso é diferente da leitura de cobranças individuais e da média (a que você está restrito no processamento pós-leitura) - ocorre no nível do hardware e altera o significado de "bruto". O ruído de leitura tem uma melhor chance de cancelar, e a carga cumulativa torna a conversão analógico-digital menos ambígua (a faixa de quanta convertidos é maior com menos amplificação).

Na prática, isso geralmente significa cortar a resolução em um fator de quatro (metade da largura e metade da altura). Com um verso de formato médio de 60 ou 80MP, isso ainda deixa você com uma imagem de 15 ou 20MP; com uma câmera com sensor de corte de 16 MP, você reduziria para uma imagem bruta de 4 MP. Agora você deve saber e eu posso saber que uma imagem limpa de 4 MP é melhor que uma imagem barulhenta de 16 MP, mas nem todo mundo aceita a ideia de que custa mais para produzir uma imagem menor. Isso significa que é improvável que você veja o bin bin de pixel em algo menos do que uma câmera de nível profissional em breve. Pode aparecer nas câmeras full-frame se a resolução delas continuar subindo, mas eu não a procuraria em um sensor de corte. (Bem, talvez Pentax possa levar uma facada algum dia, já que eles não fazem o tamanho completo.)


fonte
Sinto muito, mas acho que devo esclarecer sobre os tamanhos de imagem RAW. Eu tenho uma Canon 60D e tenho 3 opções para tamanhos de imagem RAW (RAW, M-RAW e S-RAW). Se o RAW é apenas um despejo dos sensores da câmera, como podem ser três tamanhos diferentes? A câmera também reduz a escala de imagens RAW?
Viv Viv
@ Stan: A Canon já faz exatamente o que você descreveu nos formatos mRAW e sRAW. Eles não são formatos RAW literais, são derivados de YUV (Y'CrCb para ser exato) e, de fato, são utilizados para formas de pixel binning. Veja minha resposta para mais detalhes.
jrista
O futuro: a verdadeira limitação é a área do sensor. Se o tamanho do sensor permanecer o mesmo e a resolução aumentar (diminuindo os pixels), não haverá ganho líquido com a classificação de pixels. É apenas uma questão de usar mais sensores para ler a mesma área física do sensor. O que podemos esperar é uma sensibilidade aprimorada dos sensores individuais, para que mais luz e menos ruído sejam registrados em qualquer pequena porção do sensor.
whuber
1
@ jrista: isso não é binning, é a média pós-leitura. O binning deve resultar em uma redução integral da resolução linear e os dados individuais do photosite não estão disponíveis para processamento, pois as leituras cumulativas (leituras cumulativas (não separadas, e depois a média) são realizadas em vários sensores. (Em um sistema Bayer-quad, isso significa 1/4, 1/16, 1/64, etc., da resolução total expressa em área ou pixels.) A média pós-leitura não é diferente, tecnicamente, da escala; está apenas trabalhando em um espaço de dados diferente.
1

Se o ruído principal for o seu principal problema, uma solução é capturar vários quadros e ter um software com bons algoritmos que combine uma boa imagem de vários piores. Por exemplo ALE, o Anti-Lamenessing Engine faz isso. Para assuntos em movimento, obviamente isso não funciona, mas você pode fotografar com o computador de mão, por exemplo, na ISO 1600 e depois combinar as fotos para obter níveis de ruído próximos a ISO 400 ou 800.

Zds
fonte