Por que os pixels efetivos são maiores que a resolução real?

16

Esta página compara as câmeras e menções às Canon EOS 550D e Canon EOS 500D

18,7 milhões de pixels efetivos

para 550D. No entanto, a melhor resolução possível usando esta câmera é

5184 * 3456 = 17915904 ~ 17.9 million pixels

O que são pixels efetivos e por que esse número é maior que 17,9 milhões neste caso?

lazer
fonte
1
Lembre-se também de que "resolução" tem dois significados. Nos computadores, usamos para nos referir às dimensões de pixel de uma tela ou imagem. E em um desenho de computador ou imagem gerada, isso geralmente corresponde à resolução "real" - a quantidade de detalhes realmente resolvidos na imagem. Mas em uma fotografia, não é necessariamente o caso.
18113 mattdm
1
Não é isso que está acontecendo aqui - apenas uma fonte adicional de confusão.
18113 mattdm

Respostas:

9

Parte do que estamos vendo aqui é (tenho quase certeza) nada mais do que um simples erro de digitação (ou algo desse tipo) por parte do DPReview.com. De acordo com a Canon , [PDF, página 225], o número de poços no sensor é "Aprox. 18,00 megapixels".

Esses são reduzidos para aproximadamente 17,9 megapixels quando as entradas do padrão Bayer são transformadas no que a maioria de nós pensaria em pixels. A diferença é bastante simples: cada poço no sensor detecta apenas uma cor de luz, mas um pixel como você normalmente espera na saída (por exemplo, um arquivo JPEG ou TIFF) possui três cores para cada pixel. À primeira vista, pode parecer que isso signifique que um arquivo tenha apenas cerca de um terço do número de pixels que há nos poços dos sensores na entrada. Obviamente, esse não é o caso. Aqui está (uma visão simplificada) de como as coisas funcionam:

padrão simplificado da Bayer

Cada letra representa um poço no sensor. Cada caixa representa um pixel colorido, conforme o arquivo de saída.

Na parte "interior" do sensor, cada pixel de saída depende da entrada de quatro poços do sensor, mas cada poço do sensor é usado como entrada para quatro pixels de saída diferentes, portanto, o número de entradas e o número de saídas permanecem os mesmos.

Ao redor das bordas, no entanto, temos poços de sensor que contribuem apenas para dois pixels em vez de quatro. Nos cantos, cada poço do sensor contribui apenas para um pixel de saída.

Isso significa que o número total de pixels de saída é menor que o número de poços do sensor. Especificamente, o resultado é menor em uma linha e uma coluna em comparação com a entrada (por exemplo, no exemplo, temos um sensor 8x3, mas 7x2 pixels de saída).

Jerry Coffin
fonte
+1 especialmente para o diagrama. Mas ainda estou confuso, porque isso explicaria a ausência de 2 (5184-1 + 3456-1) = cerca de 17K pixels, o que seria perdido no arredondamento da computação de 18,0 - 17,9 = 0,1M pixels. Parece que pelo menos três vezes mais pixels precisam ser removidos do limite (porque qualquer coisa menor que 50K deve arredondar para 0,0M). Talvez o demosaicing esteja usando um bairro maior do que os 2 x 2 mostrados aqui: talvez esteja usando um bairro 7 x 7?
whuber 13/03/11
1
@ whuber: De imediato, não tenho certeza se posso explicar diretamente o resto. Certamente é possível usar mais sensores para produzir um único pixel de saída, mas não tenho como saber se é isso que a Canon está fazendo neste caso. Um arquivo RAW da câmera daria o número exato de poços de sensor, mas ainda não dizer exatamente como a Canon está recebendo a partir de entrada de X a Y. saída
Jerry Coffin
3
Em bons algoritmos de desmaterialização (por exemplo, direcionado à homogeneidade adaptativa), cada sensor contribui bem para mais de quatro pixels de saída, portanto, mais de uma linha ou coluna é perdida. É fácil o suficiente para capturar a saída desproporcional do dcraw e comparar as dimensões da imagem com a saída do DPP da Canon para obter uma resposta definitiva. Vou tentar quando tiver tempo.
precisa
@ Matt Grum: Certo, olhando para trás, meu comentário anterior é pouco formulado. O que eu estava tentando entender é que existem vários algoritmos que podem (e vão) perder / descartar ~ 3 linhas / colunas de pixels, mas a contagem de pixels por si só não dirá qual deles está sendo usado. Usar um algoritmo mais sofisticado que usa mais sensores por pixel de saída é praticamente um dado.
21711 Jerry Coffin
5

Não sei por que o termo "eficaz" é usado pelo DPReview, mas há algumas razões para a discrepância entre o número de photosites (pixels) no chip e o tamanho em pixels das imagens resultantes.

Alguns sensores de câmera têm uma faixa de pixels mascarados de cada lado. Esses pixels são idênticos à maioria dos pixels no sensor, exceto que eles não recebem luz. Eles são usados ​​para detectar interferências e subtraí-las do sinal produzido pelos pixels sensíveis à luz.

Em segundo lugar, os [bons] algoritmos de desmosaicing usam muitas "operações de vizinhança", isto significa que o valor de um pixel depende um pouco do valor dos pixels vizinhos. Os pixels na borda extrema da imagem não têm vizinhos; portanto, contribuem para outros pixels, mas não aumentam as dimensões da imagem.

Também é possível que a câmera corte o sensor por outros motivos (por exemplo, o círculo da imagem da lente não cobre completamente o sensor), embora eu duvide que esse seja o caso da 550D.

Matt Grum
fonte
Os pixels da borda são usados ​​para remover a interferência ou apenas para definir o ponto preto?
18118 mattdm
1
Tanto eu acho que, se não houvesse qualquer interferência (incluindo resposta térmica) o ponto preto seria 0
Matt Grum
Descrição da DPReview . Parece-me que ele vai e volta entre dois conceitos opostos, e eu não o vejo realmente definindo o termo, exceto implicitamente. Acho que sua resposta ajuda um pouco, mas ainda me deixa pensando por que os pixels "efetivos" seriam mais do que sites de fotos reais, embora a página dpreview dê algumas possibilidades. Efetivo: usado para efetuar dados de imagem? Ou data da imagem, em última análise, tão afetada? (nota: verbo de efeito com um e: criando existência.) Ainda estou imaginando o que eles significam.
Lindes
5

Há duas razões pelas quais os pixels efetivos são menores que o número real de pixels do sensor (elementos sensores ou sensores). Primeiro, os sensores Bayer são compostos de "pixels" que detectam uma única cor de luz. Normalmente, existem sensels vermelho, verde e azul, organizados em pares de linhas na forma de:

RGRGRGRG
GBGBGBGB

Um único "pixel", como a maioria de nós está familiarizado, o pixel de estilo RGB de uma tela de computador, é gerado a partir de um sensor Bayer combinando quatro sensores, um quarteto RGBG:

          R G 
(sensor)       -->  RGB (computer)
          G B

Como uma grade 2x2 de quatro sensores RGBG é usada para gerar um único pixel de computador RGB, nem sempre há pixels suficientes ao longo da borda de um sensor para criar um pixel completo. Uma borda "extra" de pixels geralmente está presente nos sensores Bayer para acomodar isso. Uma borda adicional de pixels também pode estar presente simplesmente para compensar o design completo de um sensor, servir como pixels de calibração e acomodar componentes extra-sensor, que geralmente incluem filtros IR e UV, filtros anti-aliasing, etc. que podem obstruir um sensor. quantidade total de luz atingindo a periferia externa do sensor.

Por fim, os sensores Bayer devem ser "demosaiced" para produzir uma imagem RGB normal de pixels do computador. Existem várias maneiras diferentes de desmembrar um sensor Bayer, no entanto, a maioria dos algoritmos tenta maximizar a quantidade de pixels RGB que podem ser extraídos misturando pixels RGB de todos os conjuntos possíveis de sobreposição de quartetos 2x2 RGBG:

Demosaicing da Bayer

Para um sensor com um total de 36 sensores de cor única, é possível extrair um total geral de 24 pixels RGB. Observe a natureza sobreposta do algoritmo de demosaicing assistindo o GIF animado acima. Observe também que durante a terceira e quarta passagens, as linhas superior e inferior não foram usadas. Isso demonstra como os pixels de borda de um sensor nem sempre podem ser utilizados ao remover uma matriz sensel da Bayer.

Quanto à página DPReview, acredito que eles podem ter suas informações erradas. Acredito que o número total de sensores (pixels) no sensor Canon 550D Bayer é 18.0mp, enquanto os pixels efetivos, ou o número de pixels de computador RGB que podem ser gerados a partir dessa base 18mp, são 5184x3456 ou 17.915.904 (17.9mp). A diferença se resumiria aos pixels de borda que não conseguem compor um quarteto completo, e possivelmente alguns pixels de borda adicionais para compensar o design dos filtros e do hardware de montagem que ficam na frente do sensor.

jrista
fonte
Acabei de notar que contava sensels errados na minha imagem animada. Nas duas primeiras etapas, ele não combina 8 sensels ... combina 28 sensels em 8 pixels. Nas duas etapas finais, ele combina 14 sensores em 4 pixels. Desculpe pela discrepância. Vou tentar consertar isso em breve.
jrista
-3

Desculpe desapontar, mas nenhuma dessas explicações é verdadeira. Em todos os sensores, há uma região fora da área de imagem que também contém photosites. Alguns deles estão desativados, outros completamente e outros são usados ​​para outros fins de monitoramento. Eles são usados ​​para definir os níveis de amplificador e balanço de branco, como um "conjunto de controle" em relação àqueles que fazem a imagem real.

Se você pegar os dados do sensor RAW de qualquer uma das câmeras Powershot compatíveis com CHDK e usar o dcraw para convertê-los, poderá obter a imagem completa do sensor, incluindo essas regiões 100% preto e 100% branco.

O que é interessante, porém, é que a resolução do tamanho da imagem RAW na câmera é sempre maior que os resultados de JPG na câmera. O motivo é que os métodos de interpolação mais simples e rápidos usados ​​na câmera para ir de RAW para JPG requerem photosites RGB circundantes para determinar a cor final de cada pixel. Os photosites de borda e canto não têm essas referências de cores circundantes por todos os lados. A realização do processo posteriormente, porém em um computador com melhor software de interpolação RAW, permitirá recuperar um pouco mais de resolução no tamanho da imagem do que a obtida em um JPG na câmera.

Os revisores do ps DPReview e os autores dos artigos nunca devem ser tomados como evangelho por ninguém. Encontrei tantos buracos em seus testes e exemplos flagrantes em que os testadores nem sabiam usar as câmeras, que desconsiderei seus conselhos há muitos anos.

Handy Andy
fonte
5
Apesar do seu comentário de que "nenhuma dessas explicações é verdadeira", outras respostas já cobrem isso.
mattdm