O que limita o tamanho dos sensores de imagem digital?

10

Eu li algumas informações sobre tamanhos de sensor aqui

http://en.wikipedia.org/wiki/Image_sensor_format

de acordo com isso, o 35mm ff-CMOS é o sensor com as maiores dimensões usadas em câmeras digitais. Tem muitas vantagens para sensores menores, causados ​​pelo seu tamanho.

Por que não existem sensores ainda maiores disponíveis para forçar essas vantagens? 1,5 FF por exemplo?

fubo
fonte
4
Essa página está desatualizada. Hasselblad lançou um sensor CMOS de médio formato em março.
Philip Kendall
O artigo menciona especificamente diferentes chips de médio formato maiores que o chamado "quadro completo" (um nome impróprio). en.wikipedia.org/wiki/...
seu
@his Quais sensores CMOS maiores que o full frame mencionam?
Philip Kendall
@fubo Você está especificamente interessado em sensores CMOS (em oposição aos sensores CCD) ou realmente quer dizer "o que limita o tamanho dos sensores de imagem digital?"
Philip Kendall
@PhilipKendall atualizado
fubo

Respostas:

29

Você pode criar alguns CCDs muito grandes. Um comunicado de imprensa mais antigo fala de um CCD feito para o Observatório Naval dos EUA com 4 "× 4" e 10.560 pixels × 10.560 pixels. São 111 megapixels em um sensor. Isso não é pequeno.

Um sensor de 111 megapixels

(Do comunicado à imprensa acima)

A primeira restrição que o sensor possui é que ele deve ser uma única pastilha de silício, e esse é um preço fixo. Você pode criar CCDs projetados com um CCD de três bordas (a borda restante é onde você pode ler os dados), como:

CCD em mosaico

(Em http://loel.ucolick.org/manual/deimos_ccd/science/overview/EL3160.html )

Eles são freqüentemente usados ​​em telescópios para obter uma área de imagem maior com apenas um aumento menor no preço. Observe que há o problema de que cada CCD precisa ser calibrado separadamente dos outros (não há dois sensores de imagem com exatamente a mesma resposta) - essa é uma preocupação significativa para usos científicos ( informações de calibração para um desses conjuntos de CCD ).

O CCD do mosaico pode ser ampliado significativamente. O PanSTARRS possui um conjunto de sensores de 1,4 gigapixel, composto por um conjunto massivo de CCDs de 600 × 600 pixels:

Matriz CCD 8x8 do PanSTARRS

Acima, há uma matriz 8 × 8 de CCDs - cada um bem pequeno. Isso faz parte de uma matriz maior de 8 × 8 desses segmentos, fornecendo uma matriz geral de sensores de 64 × 64. Isso foi feito devido à economia de custos, velocidade (é mais rápido ler quatro mil CCDs de 600 × 600 pixels simultaneamente do que ler um CCD maior), isolamento de pixels saturados e uma substituição mais fácil no caso de defeitos.

O LSST usa CCDs de três bordas mais convencionais para atingir sua meta de 3,2 gigapixels. Cada segmento existe uma matriz 8 × 2 de sensores de 500 × 200 pixels. Todos os mesmos fatores mencionados para o PanSTARRs também estão em vigor aqui. Espera-se que demore 2 segundos para ler 3,2 bilhões de pixels (o que é realmente bastante rápido). Ir para CCDs menores e maiores significaria que é mais lento - não mais rápido.

Sensores LSST

Portanto, embora seja possível usar vários sensores agregados, eles ainda são compostos por pequenos sensores individuais, em vez de um grande sensor único (como foi feito com o sensor 4 × 4 "do USNO). Em alguns casos, os CCDs são muito menores do que mesmo aqueles usados ​​em câmeras apontar e disparar.

Olhe para a primeira imagem do sensor 4 × 4 "e considere o tamanho dos sensores comuns:

sensores em uma bolacha

Isso tem algumas informações adicionais a serem consideradas. Há o rendimento máximo de quantas você pode colocar em uma bolacha (você não pode se encaixar mais) e o desperdício. A fim de fazer que 4 "x 4" sensor de eles precisavam de uma extremamentebolacha de alta qualidade de silício. Em um quadro completo regular, as falhas no cristal existem, não importa quantos sensores você coloca na bolacha. Com uma pastilha de silício de 8 "(mesmo tamanho da parte superior - observe que metade do diâmetro está na" borda "), existem falhas espalhadas por toda a pastilha. Quanto menos sensores na pastilha e maior a chance de que haja haverá uma falha no sensor, tornando-o inutilizável (o desperdício de 36% em um wafer de sensor de quadro completo vs. 12,6% de desperdício no sensor de 13,2 mm × 8,8 mm) .É parte do motivo pelo qual muitas pesquisas são feitas para aumentar o densidade do chip em vez de aumentá-lo (e essa pesquisa de densidade tem outras aplicações, como acelerar a CPU).

Com um sensor destinado a um quadro de 60 mm × 60 mm, você pode instalar apenas cerca de 8 sensores na pastilha e o desperdício aumenta. Você pode ver a economia de escala trabalhando lá.

Considere que os 15 ou 16 sensores de trabalho fora do wafer de quadro completo custam o mesmo que os 213 sensores mais pequenos ... e têm o preço adequado. A imagem a seguir mostra o problema com as falhas localizadas nos mesmos locais na pastilha para matrizes de vários tamanhos.

Rendimento do sensor

(De http://commons.wikimedia.org/wiki/File:Wafer_die%27s_yield_model_(10-20-40mm)_-_Version_2_-_EN.png )

Se você estiver disposto a se afastar da 'imagem de uma só vez', poderá obter uma única matriz (bem, três a uma para cada cor) de sensores que se movem pela imagem. Geralmente, eles são encontrados como costas de digitalização para câmeras de grande formato. Lá, o problema é a precisão do equipamento e não o tamanho do sensor (memória, armazenamento de dados, E / S rápida se tornam significativas). Algumas câmeras possuem isso como uma unidade integrada, como a digital Seitz 6x17 .

Leitura adicional:

Nayuki
fonte
111 megapixels é pequeno em comparação com o LSST planejado (3,2 gigapixel) . Eu acho que o maior telescópio operacional atual (em termos de pixels) é o PanSTARRS, com 1,4 gigapixel .
Joe
@Joe a chave existe um sensor de 4 "x 4". se você rolar para baixo até a seção "LSST Focal Plane" no link fornecido, verá a explicação de "189 jangadas 3x3", onde cada parte é um CCD de mosaico de 3 arestas. A abordagem em mosaico pode ser dimensionada de maneira bastante ampla conforme você vinculou ... mas não é um único sensor. O PanSTARRS usa uma abordagem semelhante - image-sensors-world.blogspot.com/2007/09/… com uma série de CCDs ( pan-starrs.ifa.hawaii.edu/public/design-features/images/… ). Para ambos, os sensores são bastante pequenos.
12

Os maiores sensores CMOS disponíveis comercialmente para fotografia são de "formato médio" e medem cerca de 44 mm x 33 mm. Os CCDs existem em tamanhos um pouco maiores, de até 54 mm x 40 mm. Sensores maiores para aplicações científicas podem ter sido produzidos.

Os sensores são produzidos projetando uma máscara em uma grande pastilha de silício usando luz UV. A bolacha é então cortada em sensores individuais. O limite de tamanho absoluto de um sensor que pode ser produzido com esse método é determinado pelo tamanho do círculo da imagem produzido pelo projetor (embora possa haver outras preocupações com sensores muito grandes, como uso de energia e dissipação de calor que apresentam uma limite de tamanho).

O limite prático do tamanho do sensor é atingido muito mais cedo, pois é determinado pelo rendimento, ou seja, quantos sensores precisam ser descartados durante a fabricação devido a defeitos. Ao fabricar muitos sensores pequenos em uma única bolacha, um único defeito levará o descarte de um sensor, mas muitos outros serão viáveis, se um sensor ocupar toda a bolacha, um único defeito significa que nenhum sensor é produzido. O rendimento diminui assim com o quadrado do tamanho do sensor, o que torna os sensores maiores antieconômicos.

Economias de escala também se aplicam, sensores de "quadro completo" de 36 mm x 24 mm seriam mais caros se produzidos no mesmo volume que os sensores de formato médio.

Matt Grum
fonte
2
Boa resposta - Eu aprecio trazer as realidades de ambas engenharia e negócios
B Shaw
5

Existem sensores ainda maiores. Se você observar atentamente a imagem no canto superior direito da página, verá que o maior sensor é o sensor 'Medium Format Kodak KAF' .

Ok, entendo que não é fácil descobrir isso, porque é fácil entender que o fundo dessa imagem é cinza, enquanto na realidade a imagem tem um fundo branco.

Veja melhor aqui .

Além desse sensor, existem outros sensores maiores que o FF. Na mesma página, role até a Tabela de formatos e tamanhos de sensores , clique na coluna 'Fator de corte' para classificar a tabela e observe os formatos com um fator de corte menor que 1. Saia dos formatos de filme e você terminará com os seguintes sensores nesta ordem:

  • Primeira fase P 65+, IQ160, IQ180
  • Folha AFi 10
  • Formato médio (Hasselblad H5D-60)
  • Kodak KAF 39000 CCD
  • Pentax 645D
  • Leica S

Mas cuidado: também existem desvantagens para esses sensores: câmeras e lentes grandes e pesadas. Muito mais difícil construir uma lente para esse sensor (círculo maior da imagem) e ... ... é claro ... ... preço.

John Thomas
fonte
Mas o sensor Kodak é CCD, não CMOS.
Philip Kendall
4

Mais algumas coisas que podem limitar o que é prático abaixo do que pode ser fabricado:

  1. peso (do sistema resultante). Um sensor muito grande precisa de um círculo de imagem muito grande, o que significa lentes grandes e uma câmera grande.
  2. consumo de energia. Um sensor grande precisa de mais energia do que um sensor pequeno, portanto, a duração da bateria diminui (a menos que você aumente novamente o tamanho e o peso da câmera para acomodar uma bateria maior).
  3. Rapidez. Leva mais tempo para ler um sensor maior do que para ler um menor com a mesma densidade de elementos do sensor. Então a sua "velocidade do obturador" diminui.
  4. custo (sugerido, mas entra em jogo em vários níveis). É claro que um sensor maior custa mais que um pequeno, não apenas porque precisa de mais matérias-primas, mas também aumenta a quantidade de produtos descartados, cujo custo deve ser recapitulado no menor número vendido.
jwenting
fonte
Estou surpreso que ninguém mais tenha mencionado a questão da velocidade. Também vale a pena mencionar que quanto maior você ficar (em polegadas ou cm), mais distorção você terá nas bordas. Existem trabalhos de astronomia descrevendo como descrever a projeção da imagem, para que outros possam entender como a imagem é distorcida, para que possam reprojetá-la para alinhar várias imagens. Aumentar o tamanho de pixels sem aumentar o tamanho físico também é um problema de velocidade, pois requer exposições mais longas para sinal suficiente ao ruído.
Joe
@ Joe, esse é um efeito colateral da lente que você coloca na frente do sensor, que não gera raios perfeitamente paralelos em toda a face do sensor, não é um problema com o próprio sensor. Você pode contornar isso, tornando suas lentes (e sua imagem circular) muito mais amplas, aumentando o peso, o tamanho e, portanto, o custo do seu sistema ainda mais.
jwenting