Em um comentário sobre essa pergunta, alguém sugeriu que os sensores da câmera normalmente emitem apenas 12 a 14 bits de dados. Fiquei surpreso porque isso significaria que 24 bits de cor são úteis apenas para manipulação de fotos (onde os bits adicionados reduzem o ruído que se capta da interpolação de valores médios repetidamente, fazendo várias manipulações).
Alguém sabe o suficiente sobre o sensor da câmera para poder responder com autoridade à reivindicação de 12 a 14 bits? Em caso afirmativo, quais são as codificações típicas?
Respostas:
Os photosites de um sensor digital são realmente dispositivos analógicos . Eles realmente não têm um pouco de profundidade. No entanto, para formar uma imagem digital, um conversor analógico-digital (conversor A / D) faz uma amostragem do sinal analógico em uma profundidade de bits especificada. Isso normalmente é anunciado nas especificações de uma câmera - por exemplo, a Nikon D300 possui um conversor A / D de 14 bits .
Mas lembre-se de que isso é por canal , enquanto cores de 24 bits geralmente significam 8 bits por canal. Alguns formatos de arquivo - e espaços de trabalho - usam 16 bits por canal (para um total de 48 bits), e alguns usam ainda mais que isso.
Isso ocorre em parte para que a precisão extra possa reduzir os erros de arredondamento acumulados (como você observa na sua pergunta), mas também porque a visão humana não é linear e, portanto, os espaços de cores que usamos tendem a não ser. Mudar de uma curva linear para "gama comprimida" é uma operação com perdas (consulte uma das várias perguntas sobre arquivos brutos ), portanto, ter mais bits significa menos perdas, o que é melhor se você mudar de idéia sobre exposição / curvas e não não tem mais acesso ao arquivo RAW.
fonte
A maioria dos chips de sensor registra apenas um componente de cor por pixel; portanto, um pixel pode conter, por exemplo, 14 bits de dados para intensidade verde.
Os pixels são dispostos em uma grade em que 50% dos pixels registram dados em verde, 25% em vermelho e 25% em azul:
Quando esses dados são convertidos em RGB, dois componentes de cores por pixel são interpolados a partir das informações nos pixels circundantes. Um pixel que contém informações verdes, por exemplo, tem dois pixels vizinhos que contêm dados em vermelho e dois que contêm dados em azul, usados para criar o valor RGB.
Portanto, 14 bits por pixel de dados RAW produz 42 bits por pixel de dados RGB. Obviamente, os dados interpolados são menos precisos, mas você geralmente os processa até RGB de 24 bits.
fonte
Cuidado para não confundir profundidade de bits por pixel e profundidade de bits por componente.
A saída dos sensores digitais é quase sempre entre 10 e 14 bits por componente em uma escala linear. Isso daria entre 30 bits de cor (1 bilhão) e 42 bits (4 trilhões) por pixel.
O site DXOMark mede isso usando uma escala normalizada (explicada em seu white paper) e publica profundidade de bits por pixel, o que explica o ruído que tende a destruir os bits de ordem inferior. Com base em suas descobertas em tamanho cheio, as DSLRs podem atingir 24,7 bits por pixel, enquanto as câmeras de médio formato atingem 26 bits. Para câmeras com sensores cortados, 23,8 bits é o máximo atual.
fonte
As câmeras DSLR atuais completam com saída de 14 bits. Algumas câmeras de médio formato reivindicam saída de 16 bits, mas várias pessoas ( como o site dpBestflow do ASMP) argumentam que o aumento na profundidade de bits entre 14 bits e 16 bits realmente produz uma imagem melhor.
fonte