Arquivos brutos realmente não armazenar quaisquer cores por pixel. Eles armazenam apenas um único valor de brilho por pixel.
É verdade que, com uma máscara Bayer sobre cada pixel, a luz é filtrada com um filtro vermelho, verde ou azul¹ sobre cada poço de pixel. Mas não há um corte rígido no qual apenas a luz verde chegue a um pixel filtrado verde ou apenas a luz vermelha chegue a um pixel filtrado vermelho. Há muita sobreposição. Muita luz vermelha e alguma luz azul passam pelo filtro verde. Muita luz verde e até um pouco de luz azul passam pelo filtro vermelho, e alguma luz vermelha e verde é registrada pelos pixels filtrados em azul.
Como um arquivo bruto é um conjunto de valores de luminância únicos para cada pixel no sensor, não há informações reais de cores por pixel em um arquivo bruto. A cor é derivada comparando os pixels adjacentes que são filtrados por uma das três cores com uma máscara Bayer. Mas, assim como colocar um filtro vermelho na frente da lente ao fotografar em preto e branco, não resultou em uma foto monocromática em vermelho (ou em preto e branco, onde apenasobjetos vermelhos têm brilho algum), a máscara Bayer na frente de pixels monocromáticos também não cria cores. O que ele faz é alterar o valor da tonalidade (quão brilhante ou quão escuro é o valor da luminância de uma determinada cor é registrado) de várias cores em diferentes quantidades. Quando os valores tonais (intensidades de cinza) dos pixels adjacentes filtrados com as três cores diferentes usadas na máscara Bayer são comparados, as cores podem ser interpoladas a partir dessa informação. Este é o processo que chamamos de demosaicing .
Muita matemática é feita para atribuir um valor de R, G e B para cada pixel. Existem muitos modelos diferentes para fazer essa interpolação. O quanto de desvio é dado ao vermelho, verde e azul no processo de desmaterialização é o que define o equilíbrio de branco / cor . A correção gama e qualquer modelagem adicional das curvas de resposta à luz é o que define o contraste . Mas, no final, um valor de R, G e B é atribuído a cada pixel. No exemplo de 6 x 6 pixels da pergunta, o resultado do desmembramento seria uma imagem de 36 pixels com 36 pixels, cada um com um valor de vermelho, verde e azul.
Um pouco de resolução está perdido na tradução. Acontece que, em termos do número de linhas alternadas em preto e branco por polegada ou mm que podem ser resolvidas por um sensor com uma máscara RGGB Bayer e desmembramento bem feito, o limite de resolução absoluto de um sensor Bayer é de cerca de 1 / √2 em comparação com um sensor monocromático que não possui máscara Bayer e, portanto, não precisa de demosaicing (mas só pode ser visto em preto e branco).
Mesmo quando sua câmera está configurada para salvar arquivos brutos, a imagem que você vê na parte de trás da tela LCD da câmera logo após tirar a foto não é um dado bruto não processado. É uma imagem de visualização gerada pela câmera, aplicando as configurações da câmera aos dados brutos que resultam na imagem de visualização jpeg exibida no LCD. Essa imagem de visualização é anexada ao arquivo bruto, juntamente com os dados do sensor e as informações EXIF que contêm as configurações da câmera no momento em que a foto foi tirada.
As configurações de desenvolvimento da câmera para itens como balanço de branco, contraste, sombra, realces etc. não afetam os dados reais do sensor que é gravado em um arquivo bruto. Em vez disso, todas essas configurações estão listadas em outra parte do arquivo bruto.
Quando você abre um arquivo "bruto" no seu computador, vê uma das duas coisas diferentes:
A imagem jpeg de visualização criada pela câmera no momento em que você tirou a foto. A câmera usou as configurações em vigor quando você tirou a foto e as anexou aos dados brutos no arquivo .cr2. Se você estiver olhando para a imagem na parte traseira da câmera, é a visualização em jpeg que está vendo.
Uma conversão dos dados brutos pelo aplicativo que você usou para abrir o arquivo "bruto". Quando você abre um arquivo 'bruto' de 12 ou 14 bits em seu aplicativo de foto no computador, o que você vê na tela é uma renderização de 8 bits do arquivo bruto desmembrado que é muito parecido com um jpeg, não o arquivo monocromático de 14 bits filtrado pela Bayer. À medida que você altera as configurações e os controles deslizantes, os dados "brutos" são remapeados e renderizados novamente em 8 bits por canal de cor.
O que você vê dependerá das configurações que você selecionou para o aplicativo com o qual você abre o arquivo bruto.
Se você estiver salvando suas fotos no formato bruto quando as tirar, ao pós-processamento, terá exatamente as mesmas informações para trabalhar, independentemente das configurações de desenvolvimento selecionadas na câmera no momento em que você fotografar. Alguns aplicativos podem abrir o arquivo inicialmente usando a visualização jpeg ou aplicando as configurações da câmera ativas no momento em que a imagem foi gravada nos dados brutos, mas você pode alterar essas configurações, sem perda de dados destrutiva, para o que quer que seja você quer no correio.
O Digital Photo Professional da Canon abrirá um arquivo bruto .cr2 no mesmo estilo de imagem que foi selecionado na câmera ao fotografar. Tudo o que você precisa fazer para alterá-lo é usar o menu suspenso e selecionar outro Estilo Imagem . Você pode até criar uma "receita" para uma imagem e aplicá-la em lote a todas as imagens antes de começar a trabalhar com elas. O software de processamento bruto de outro fabricante é semelhante e geralmente há uma opção para que o aplicativo abra uma imagem com as configurações de desenvolvimento da câmera aplicadas.
Com aplicativos de processamento bruto de terceiros, como o Lightroom da Adobe ou o Camera Raw , o Aperture ou o Photos da Apple , o Capture One Pro da PhaseOne e o DxO Lab da PhaseOne , OpticsPro , etc. obter imagens para exibir de acordo com as configurações da câmera pode ser um pouco mais complicado. Os produtos da Adobe, por exemplo, ignoram a maioria das seções de notas dos criadores dos dados EXIF de um arquivo bruto, onde muitos fabricantes incluem pelo menos algumas informações sobre as configurações da câmera.
¹ As cores reais da máscara Bayer na frente dos sensores da maioria das câmeras digitais coloridas são: Azul - uma versão levemente violeta do azul centrado em 450 nanômetros, Verde - uma versão levemente azulada do verde centrado em cerca de 540 nanômetros e Vermelho - uma versão ligeiramente laranja de amarelo. O que chamamos de "vermelho" é a cor que percebemos para a luz a cerca de 640 nanômetros de comprimento de onda. Os filtros "vermelhos" na maioria das matrizes Bayer permitem a passagem de mais luz em algo entre 590 e 600 nanômetros. A sobreposição entre os cones "verde" e "vermelho" na retina humana é ainda mais próxima do que isso, com o "vermelho" centrado em cerca de 565 nanômetros, que é o que percebemos como verde-amarelo.
É tudo verdade, mas a interpretação pode ser ampliada.
Esse padrão específico de cores brutas é chamado de padrão Bayer.
Sim, bruto é uma cor por pixel e esse pixel é (normalmente) 12 bits. Portanto, existem três cores de pixels brutos, alguns são azuis, outros são vermelhos e duas vezes essas contagens são verdes.
Posteriormente, o software de processamento bruto (para criar JPG RGB, pode estar imediatamente na câmera ou ser externo muito mais tarde) converte os dados brutos em uma imagem RGB para que possamos usá-lo. Isso é interpolação, pixels vizinhos das outras duas cores são combinados em cada um desses pixels RGB, mas todos se tornam pixels RGB. Nesse ponto, são pixels RGB de 36 bits, no entanto, a resolução espacial é levemente comprometida, com os vários dados de pixel sendo compartilhados com os vizinhos. Podemos acabar com (por exemplo) 6000 pixels RGB de largura do sensor, mas foram provenientes de 2000 sensores azuis e 2000 vermelhos etc. (e os dados também são compartilhados verticalmente, vêm de mais de três pixels). Isso é chamado demosaicing ... que pode ser encontrado online.
fonte
Ken está certo na afirmação que você cita - mais ou menos. É correto que as câmeras digitais hoje (com exceção das que possuem sensores Foveon da Sigma) funcionem usando uma matriz Bayer, e a resolução do sensor seja citada como o tamanho da matriz. Sua imagem de exemplo representa um sensor de "36 pixels". No entanto, é importante reconhecer que as câmeras transformam isso em uma imagem colorida do tamanho especificado em pixels reais e que isso não é tão ruim quanto Ken faz parecer. .
Várias coisas que ele diz nesse artigo estão totalmente erradas, começando com:
Isso foi um absurdo em 2006 e hoje é um absurdo. O processo funciona em algumas suposições simples. Mais dos quais são apresentados aqui , mas o básico é que você pode prever o que as informações "ausentes" devem observar nos pixels vizinhos de cores diferentes. Isso acaba sendo uma boa suposição na maioria das vezes e muito errada outras vezes. Nos casos em que não há muita transição muito detalhada entre as cores, o resultado é tão bom quanto se cada sensor registrasse todas as cores. Nos casos em que a suposição está errada, é muito pior. No mundo real, o primeiro é realmente muito comum e funciona muito melhor do que "metade" - mas o importante é que depende do contexto.
Ele está certo em fotografar o RAW não muda os fundamentos, mas a idéia de que arquivos antigos parem de funcionar é basicamente um absurdo . Como as câmeras antigas usam o mesmo princípio básico e os formatos de arquivo fundamentalmente semelhantes, não custa muito oferecer suporte a modelos antigos indefinidamente, e os fornecedores têm muito incentivo para fazê-lo - e mesmo que isso aconteça, existem ótimos decodificadores de código aberto.
E, é claro, manter os arquivos RAW oferece outras vantagens não relacionadas ao desmosaicing.
Mas também é bobagem dizer que a possibilidade de futuras melhorias é a única vantagem. Como eu disse, existem diferentes suposições que podem ser feitas sobre o conteúdo da sua imagem, e algoritmos diferentes (ou ajustes nesses algoritmos) atenderão melhor a diferentes situações do mundo real; portanto, se você estiver em uma situação em que está obtendo moiré ou outros artefatos, você poderá lidar com isso. (Embora eu deva acrescentar que isso é muito exigente - raramente há uma situação em que espreitar isso de perto valha a pena.)
Há também um fator pelo qual Ken pode ser desculpado, porque o artigo tem uma década. Em 2006, a maioria das câmeras estava na faixa de 5 a 8 megapixels, com modelos DSLR de ponta a chegar a 12. Agora, DSLRs típicas de baixa / média faixa e câmeras sem espelho oferecem 16 e 24 megapixels, e vão daí. Nesse ponto, discutir sobre detalhes de cores no nível de visualização de pixels é realmente acadêmico, porque no mundo real é muito raro que iluminação, lentes, estabilidade e tudo o mais se alinhem tão bem que esse é o fator limitante.
Em geral, muitos dos sites de Ken Rockwell são assim. (Veja esta resposta para mais informações .) Isso é lamentável, pois ele realmente tem muitas coisas interessantes a dizer e alguns bons conselhos, mas há muitas bobagens também, e, em vez de admitir ou melhorar isso, ele tende a dobrar para baixo e afirma que todo o site é sátira.
Ah, e um fato interessante: as telas LCD traseiras da câmera e os EVFs também usam três subpixels coloridos para representar um pixel digital, e essas telas geralmente são comercializadas com a contagem dos subpixels - efetivamente 3 × o que você pode esperar da maneira como a resolução da tela do computador é fornecida.
fonte