Por que os sensores convencionais não usam filtros CYM em vez de RGB?

18

Pelo que entendi, a maioria das câmeras digitais possui um sensor em que cada sensor de pixel possui três sub-sensores, cada um com um filtro R, G e B. O RGB é obviamente o modelo de cores mais fundamental, pois corresponde diretamente aos receptores (cones) no olho humano.

No entanto, os filtros RGB eliminam necessariamente dois terços da luz branca para obter seu componente. Certamente as câmeras se beneficiariam de menores tempos de exposição se os filtros fossem CYM, em que cada elemento corta apenas um terço da luz? O processador da câmera ainda pode salvar a imagem em qualquer formato que o consumidor deseje, pois um ponto de dados CYM pode ser facilmente convertido em RGB.

Eu sei que isso às vezes é feito em astrofotografia, onde três fotos em preto e branco são tiradas com filtros CYM.

Estou errado e isso é, de fato, o que já foi feito - ou há uma boa razão para um sensor RGB?

Robin
fonte
1
Na astrofotografia de longa exposição, uma das poucas áreas em que a quantidade total de luz capturada é uma grande preocupação, uma abordagem comum é usar um sensor monocromático puro e combinar períodos de exposição (relativamente) curtos feitos com filtros vermelho, verde e azul para colorir a imagem, com um intervalo muito maior, em que nenhum filtro é usado para maximizar os detalhes no resultado final.
11113 Dan Neely

Respostas:

19

Primeiro, um pouco de pano de fundo para esclarecer um leve mal-entendido de sua parte.

A grande maioria das câmeras digitais coloridas possui um filtro Bayer que mascara cada pixel com um filtro colorido: vermelho, verde ou azul. Data Os dados RAW não incluem nenhuma informação de cor, mas apenas um valor de luminância para cada pixel.

No entanto, os filtros RGB eliminam necessariamente dois terços da luz branca para obter seu componente.

Na verdade não. Há muita luz verde que passa pelos filtros 'vermelho' e 'azul'. Há muita luz 'vermelha' e uma boa quantidade de luz 'azul' que passa pelo filtro 'verde'. Há alguma luz "azul" que passa pelo filtro vermelho e vice-versa. Os comprimentos de onda nos quais os filtros 'Verde' e 'Vermelho' estão centrados estão muito próximos um do outro, e 'Vermelho' geralmente está entre 580nm e 600nm, que é mais no território 'amarelo-laranja' do que 'vermelho'. Os "picos" dos filtros em uma matriz típica da Bayer não estão alinhados com os comprimentos de onda que descrevemos como "vermelho", "verde" e "azul".

insira a descrição da imagem aqui

Então, de certa forma, nossas câmeras são realmente YGV (amarelo-verde-violeta) tanto quanto RGB. Nossos sistemas de reprodução de cores (monitores, impressoras, impressoras web, etc.) são RGB, CMYK ou alguma outra combinação de cores.

insira a descrição da imagem aqui

Isso imita o olho humano, onde nossos cones 'vermelhos' são centralizados em torno de 565nm, que é um amarelo esverdeado, em oposição aos nossos cones 'verdes', que são centralizados em torno de 540nm, que é verde com apenas um tom de amarelo misturado. Para saber mais sobre como o sistema de visão humana e nossas câmeras criam "cores" na parte do espectro de radiação eletromagnética que chamamos de "luz", veja: Por que vermelho, verde e azul são as cores primárias da luz?

Não há um corte rígido entre as cores do filtro, como um filtro usado em um instrumento científico que permite apenas uma faixa muito estreita de comprimentos de onda. É mais como os filtros de cores que usamos nos filmes em preto e branco. Se usarmos um filtro vermelho com filme em preto e branco, todos os objetos verdes não desaparecerão ou parecerão totalmente pretos, como faria com um corte rígido. Em vez disso, os objetos verdes terão um tom mais escuro de cinza do que os objetos vermelhos que são igualmente brilhantes na cena real.

Assim como no olho humano, quase todos os filtros Bayer incluem o dobro de pixels "verdes" que os pixels "vermelho" ou "azul". Em outras palavras, todos os outros pixels são mascarados com "Verde" e a metade restante é dividida entre "Vermelho" e "Azul". Portanto, um sensor de 20MP teria aproximadamente 10 milhões de pixels verde, 5 milhões de vermelho e 5 milhões de azuis. Quando os valores de luminância de cada pixel são interpretados pela unidade de processamento da câmera, a diferença entre os pixels adjacentes mascarados com cores diferentes é usada para interpolar um valor vermelho, verde e azul ( que na verdade corresponde a algo em torno de 480, 530 e 640 nanômetros ) para cada pixel. Cada cor é adicionalmente ponderada para aproximadamente a sensibilidade do olho humano, de modo que o "Vermelho"

O processo de conversão dos valores de luminância monocromática de cada pixel em um valor RGB interpolado para cada pixel é conhecido como demosaicing. Como a maioria dos fabricantes de câmeras usa algoritmos proprietários para fazer isso, o uso de conversores RAW de terceiros, como o Adobe Camera RAW ou o DxO Optics, produzirá resultados ligeiramente diferentes do que o uso do conversor RAW do próprio fabricante. Existem alguns tipos de sensores, como o Foveon, que possuem três camadas sensíveis à cor empilhadas umas sobre as outras. Mas os fabricantes afirmam que esse sensor, com três camadas de 15MP empilhadas, é um sensor de 45MP. Na realidade, esse arranjo produz a mesma quantidade de detalhes que um sensor mascarado convencional da Bayer de aproximadamente 30 MP. O problema com os sensores do tipo Foveon, pelo menos até agora, tem sido um desempenho de ruído inferior em ambientes com pouca luz.

Então, por que a maioria das câmeras digitais não usa filtros CYM em vez de filtros RGB¹? A principal razão é a precisão das cores, conforme definido pela percepção humana dos diferentes comprimentos de onda da luz. É muito mais difícil interpolar valores de cores com precisão usando valores de pixels adjacentes ao usar uma máscara CYM do que ao usar uma máscara "RGB" .¹ Portanto, você deixa um pouco de sensibilidade à luz para obter precisão de cores. Afinal, a maioria das fotografias comerciais nos níveis mais altos é feita com iluminação controlada (como um estúdio de retratos, onde é fácil adicionar luz) ou com um tripé (que permite tempos de exposição mais longos para coletar mais luz). E as demandas dos fotógrafos profissionais são o que impulsiona a tecnologia que chega até os produtos de qualidade para o consumidor.

Cept Exceto os três filtros de cores para a maioria das câmeras "RGB" mascaradas da Bayer são realmente 'azuis com um toque de violeta', 'verdes com um toque de amarelo' e em algum lugar entre 'amarelo com um toque de verde' (que imita a olho humano mais) e 'Amarelo com muita laranja' (que parece ser mais fácil de implementar para um sensor CMOS).

Michael C
fonte
Obrigado pelas informações do filtro Bayer. Como alguém que vive em um país sombrio e com pouca luz, eu sempre otimizava a sensibilidade, mas entendo o argumento da precisão das cores. Ótima resposta!
Robin
Seu país sombrio e com pouca luz não possui eletricidade e lâmpadas? :-)
Michael C
Nós somos o país mais coberto de CFTV do mundo, então acho que algumas câmeras funcionam. Quanto às lâmpadas ... eu prefiro aproveitar o poder glorioso do sol.
Robin
Até o poder glorioso do sol precisa de um refletor algumas vezes para lançar luz no lado sombrio de um objeto. E o sol está "dormindo" metade do tempo ao longo de um ano, não importa onde você esteja neste planeta.
Michael C
10

Foram produzidos sensores magenta amarelo ciano, juntamente com ciano verde vermelho e algumas outras variações.

O principal problema é que, mesmo com sensores RGB, há uma sobreposição significativa entre a resposta espectral de cada um dos corantes, ou seja, os pixels "verdes" são sensíveis à luz vermelha e azul em certa medida. Isso significa que os resultados requerem cálculos complexos para obter cores precisas; as respostas relativas dos pixels vermelhos e azuis adjacentes são usadas para julgar quanto da resposta verde foi realmente o resultado da luz vermelha e azul.

Com o CMY, o problema é muito pior. Você está basicamente trocando eficiência de luz pela precisão das cores. Isso pode ser bom para a fotografia astronômica, onde você nem sempre tem limites de cores nítidas; portanto, você pode reduzir o ruído da cor desfocando, mas não é bom para a fotografia de paisagem ou moda.


Entre os chips RGB, a escolha exata dos filtros varia de acordo com o fabricante. A Canon, por exemplo, usa corantes fracos com ampla resposta para obter desempenho com pouca luz, mas os corantes específicos usados ​​também são ajustados para discernir cores sob iluminação fluorescente, para o benefício do exército de fotógrafos de esportes e notícias que usam câmeras Canon.

A Sony, por outro lado, com o A900 tentou entrar no mercado de moda profissional, fornecendo uma precisão de cores muito alta. As matrizes de filtro de cores usadas nas costas digitais de médio formato são ajustadas para fornecer tons de pele agradáveis ​​(embora não necessariamente precisos).

Matt Grum
fonte
Seria prático para uma câmera tentar obter um desempenho semelhante ao dos olhos, usando uma mistura de pixels de morte forte e de morte fraca, possivelmente variando também o tamanho do pixel, de modo que, nas condições de iluminação em que os pixels mais pequenos são fortemente tingidos estavam captando dados significativos que seriam usados ​​para produzir cores saturadas, enquanto em condições de baixa luminosidade os pixels mais fracamente tingidos proporcionariam um canal de luminância mais limpo enquanto a filtragem adaptativa fosse usada para limpar o ruído no croma?
precisa
1
"O principal problema é que, mesmo com sensores RGB, há uma sobreposição significativa entre a resposta espectral de cada um dos corantes ..." Seria um problema muito maior se cada filtro bloqueasse totalmente as frequências de luz permitidas pelos outros. Toda a percepção de "cor" pela visão humana é devida à maneira sobreposta em que os cones em nossas retinas respondem à luz de várias frequências. Não existem cores implícitas em vários comprimentos de onda da própria luz, apenas na percepção da luz por nossa visão tricromática com respostas sobrepostas dos cones S, M e L em nossas retinas.
Michael C
2

As razões pelas quais os fabricantes de câmeras instaladas no conjunto RGBG Bayer provavelmente têm mais a ver com patentes, disponibilidade e custo do que com a "precisão" das cores. Em princípio, qualquer conjunto de três cores apropriadas "ortogonais" (por assim dizer) deve ser bom para a reprodução das cores. Com sensores e processadores mais avançados, deve ser ainda mais fácil.

Duvido que a precisão da cor RGB vs CMY afirme que as conversões entre RGB e CMYK são feitas o tempo todo para impressão. Além disso, antes do balanceamento de branco, as cores desmembradas nos arquivos brutos não se aproximam das cores desejadas. Se as cores fossem realmente "precisas", os fotógrafos não precisariam gastar tanto tempo corrigindo as fotos.

As várias experiências com sensores da Fujifilm (Super CCD, EXR CMOS, X-Trans) demonstram que só porque todo mundo faz algo de uma maneira específica não significa que é necessariamente a melhor maneira de fazê-lo. A Kodak também experimentou diferentes matrizes de cores , mas não fez um trabalho muito bom no marketing de sua tecnologia e patentes.

A Nikon Coolpix 5700, uma câmera de 5mp de 2002, parece estar entre as últimas câmeras a usar uma matriz de cores CYGM . A Digital Photography Review diz (ênfase adicionada) :

A qualidade da imagem é excelente, com a excelente medição matricial, bom equilíbrio de tons e cores (precisas e vivas sem exalar cores), além da resolução acima da média. A franja roxa caiu, mas a aparência geral da imagem ainda é muito 'Coolpix'. Os níveis de ruído são bons, especialmente quando comparados a outras câmeras digitais de cinco megapixels (como indicado por nossa comparação com a Minolta DiMAGE 7i).

Os poucos detalhes de qualidade de imagem que captamos; distorção de barril, recorte de destaque e artefatos Bayer não são os tipos de problemas que afetam as filmagens diárias e não prejudicam sua satisfação geral com a qualidade de imagem do 5700.

xiota
fonte