Esta página compara as câmeras e menções às Canon EOS 550D e Canon EOS 500D
18,7 milhões de pixels efetivos
para 550D. No entanto, a melhor resolução possível usando esta câmera é
5184 * 3456 = 17915904 ~ 17.9 million pixels
O que são pixels efetivos e por que esse número é maior que 17,9 milhões neste caso?
Respostas:
Parte do que estamos vendo aqui é (tenho quase certeza) nada mais do que um simples erro de digitação (ou algo desse tipo) por parte do DPReview.com. De acordo com a Canon , [PDF, página 225], o número de poços no sensor é "Aprox. 18,00 megapixels".
Esses são reduzidos para aproximadamente 17,9 megapixels quando as entradas do padrão Bayer são transformadas no que a maioria de nós pensaria em pixels. A diferença é bastante simples: cada poço no sensor detecta apenas uma cor de luz, mas um pixel como você normalmente espera na saída (por exemplo, um arquivo JPEG ou TIFF) possui três cores para cada pixel. À primeira vista, pode parecer que isso signifique que um arquivo tenha apenas cerca de um terço do número de pixels que há nos poços dos sensores na entrada. Obviamente, esse não é o caso. Aqui está (uma visão simplificada) de como as coisas funcionam:
Cada letra representa um poço no sensor. Cada caixa representa um pixel colorido, conforme o arquivo de saída.
Na parte "interior" do sensor, cada pixel de saída depende da entrada de quatro poços do sensor, mas cada poço do sensor é usado como entrada para quatro pixels de saída diferentes, portanto, o número de entradas e o número de saídas permanecem os mesmos.
Ao redor das bordas, no entanto, temos poços de sensor que contribuem apenas para dois pixels em vez de quatro. Nos cantos, cada poço do sensor contribui apenas para um pixel de saída.
Isso significa que o número total de pixels de saída é menor que o número de poços do sensor. Especificamente, o resultado é menor em uma linha e uma coluna em comparação com a entrada (por exemplo, no exemplo, temos um sensor 8x3, mas 7x2 pixels de saída).
fonte
Não sei por que o termo "eficaz" é usado pelo DPReview, mas há algumas razões para a discrepância entre o número de photosites (pixels) no chip e o tamanho em pixels das imagens resultantes.
Alguns sensores de câmera têm uma faixa de pixels mascarados de cada lado. Esses pixels são idênticos à maioria dos pixels no sensor, exceto que eles não recebem luz. Eles são usados para detectar interferências e subtraí-las do sinal produzido pelos pixels sensíveis à luz.
Em segundo lugar, os [bons] algoritmos de desmosaicing usam muitas "operações de vizinhança", isto significa que o valor de um pixel depende um pouco do valor dos pixels vizinhos. Os pixels na borda extrema da imagem não têm vizinhos; portanto, contribuem para outros pixels, mas não aumentam as dimensões da imagem.
Também é possível que a câmera corte o sensor por outros motivos (por exemplo, o círculo da imagem da lente não cobre completamente o sensor), embora eu duvide que esse seja o caso da 550D.
fonte
Há duas razões pelas quais os pixels efetivos são menores que o número real de pixels do sensor (elementos sensores ou sensores). Primeiro, os sensores Bayer são compostos de "pixels" que detectam uma única cor de luz. Normalmente, existem sensels vermelho, verde e azul, organizados em pares de linhas na forma de:
Um único "pixel", como a maioria de nós está familiarizado, o pixel de estilo RGB de uma tela de computador, é gerado a partir de um sensor Bayer combinando quatro sensores, um quarteto RGBG:
Como uma grade 2x2 de quatro sensores RGBG é usada para gerar um único pixel de computador RGB, nem sempre há pixels suficientes ao longo da borda de um sensor para criar um pixel completo. Uma borda "extra" de pixels geralmente está presente nos sensores Bayer para acomodar isso. Uma borda adicional de pixels também pode estar presente simplesmente para compensar o design completo de um sensor, servir como pixels de calibração e acomodar componentes extra-sensor, que geralmente incluem filtros IR e UV, filtros anti-aliasing, etc. que podem obstruir um sensor. quantidade total de luz atingindo a periferia externa do sensor.
Por fim, os sensores Bayer devem ser "demosaiced" para produzir uma imagem RGB normal de pixels do computador. Existem várias maneiras diferentes de desmembrar um sensor Bayer, no entanto, a maioria dos algoritmos tenta maximizar a quantidade de pixels RGB que podem ser extraídos misturando pixels RGB de todos os conjuntos possíveis de sobreposição de quartetos 2x2 RGBG:
Para um sensor com um total de 36 sensores de cor única, é possível extrair um total geral de 24 pixels RGB. Observe a natureza sobreposta do algoritmo de demosaicing assistindo o GIF animado acima. Observe também que durante a terceira e quarta passagens, as linhas superior e inferior não foram usadas. Isso demonstra como os pixels de borda de um sensor nem sempre podem ser utilizados ao remover uma matriz sensel da Bayer.
Quanto à página DPReview, acredito que eles podem ter suas informações erradas. Acredito que o número total de sensores (pixels) no sensor Canon 550D Bayer é 18.0mp, enquanto os pixels efetivos, ou o número de pixels de computador RGB que podem ser gerados a partir dessa base 18mp, são 5184x3456 ou 17.915.904 (17.9mp). A diferença se resumiria aos pixels de borda que não conseguem compor um quarteto completo, e possivelmente alguns pixels de borda adicionais para compensar o design dos filtros e do hardware de montagem que ficam na frente do sensor.
fonte
Desculpe desapontar, mas nenhuma dessas explicações é verdadeira. Em todos os sensores, há uma região fora da área de imagem que também contém photosites. Alguns deles estão desativados, outros completamente e outros são usados para outros fins de monitoramento. Eles são usados para definir os níveis de amplificador e balanço de branco, como um "conjunto de controle" em relação àqueles que fazem a imagem real.
Se você pegar os dados do sensor RAW de qualquer uma das câmeras Powershot compatíveis com CHDK e usar o dcraw para convertê-los, poderá obter a imagem completa do sensor, incluindo essas regiões 100% preto e 100% branco.
O que é interessante, porém, é que a resolução do tamanho da imagem RAW na câmera é sempre maior que os resultados de JPG na câmera. O motivo é que os métodos de interpolação mais simples e rápidos usados na câmera para ir de RAW para JPG requerem photosites RGB circundantes para determinar a cor final de cada pixel. Os photosites de borda e canto não têm essas referências de cores circundantes por todos os lados. A realização do processo posteriormente, porém em um computador com melhor software de interpolação RAW, permitirá recuperar um pouco mais de resolução no tamanho da imagem do que a obtida em um JPG na câmera.
Os revisores do ps DPReview e os autores dos artigos nunca devem ser tomados como evangelho por ninguém. Encontrei tantos buracos em seus testes e exemplos flagrantes em que os testadores nem sabiam usar as câmeras, que desconsiderei seus conselhos há muitos anos.
fonte