Não estou falando de mudanças na distância focal.
Eu já li muitos posts que dizem que na câmera full frame a densidade de pixels é menor em comparação com a câmera com sensor de corte e, portanto, captura mais luz e, portanto, possui melhor desempenho ISO e maior alcance dinâmico. Então, se eu mudar pela câmera do sensor de corte para fotografar em uma resolução mais baixa, isso equivalerá a uma melhor densidade de pixels e imitará o desempenho de um quadro completo (ou formato médio) ou sempre fotografará na resolução máxima e reduzirá o tamanho?
--EDIT: 1--
Eu tenho uma Canon 60D e tenho 3 opções para tamanhos de imagem RAW (RAW, M-RAW e S-RAW). Se o RAW é apenas um despejo dos sensores da câmera, como podem ser três tamanhos diferentes? A câmera também reduz a escala de imagens RAW?
Respostas:
Como você possui uma Canon, os modos RAW inferiores, mRAW e sRAW, UTILIZAM TODOS OS pixels do sensor disponíveis para produzir um resultado mais rico sem a necessidade de interpolação de camadas. O formato de saída real, embora ainda esteja contido em um arquivo de imagem .cr2 Canon RAW, é codificado em um formato Y'CbCr, semelhante a muitos formatos de vídeo suspenso. Ele armazena informações de luminância para cada pixel COMPLETO (2x2 quad de 1 vermelho, 1 azul e 2 pixels verdes) e cada canal de crominância é derivado de dados de meio pixel (1x2 par de 1 vermelho + 1 verde ou 1 azul + 1 verde) .
Não sei exatamente quais são as diferenças específicas de leitura e codificação de hardware de baixo nível entre mRAW e sRAW; no entanto, de um modo geral, quanto menor o formato de saída, mais informações de entrada de pixel de sensor você pode usar para cada pixel de saída. A pequena quantidade de interpolação presente no m / sRAW é discutível, pois os dois formatos interpolam muito menos do que o RAW nativo. Também deve ser observado que nem o mRAW nem o sRAW são formatos "RAW" reais no sentido normal ... os dados do sensor são processados e convertidos em outra coisa antes de serem salvos em um arquivo .cr2.
Para obter mais detalhes sobre os formatos derivados do YUV e o Canon sRAW, consulte minha resposta aqui: Por que o espaço de cores xvYCC não está sendo absorvido pelas fotografias?
Em "Entendendo o que é armazenado em um arquivo .CR2 da Canon RAW":
Cada "pixel" nas imagens sRAW e mRAW contém quatro componentes ... um componente Y 'dividido (y1 e y2), bem como um x (azul de crominância) e z (vermelho de crominância). Todos os quatro componentes (de uma perspectiva de imagem de 1/2, sRAW1 / mRAW) têm uma altura de coluna de 2 (h) e uma largura de 1 (v). Isso indica que o valor de Luminância (Y ') é composto por um quad FULL 2x2 pixel ... ou duas colunas de 2x1 pixel armazenadas em y1 e y2.
As referências abaixo não parecem indicar isso especificamente, então estou especulando um pouco aqui, no entanto, com o sRAW2 (1/4 bruto), acredito que as informações de luminância seriam derivadas de um bloco de pixels 4x4, onde h = 4 e v = 2. A codificação de crominância se tornaria mais complexa em uma imagem de tamanho 1/4, pois o filtro de cores em camadas no sensor não está organizado em colunas vermelhas e azuis. Não tenho certeza se colunas de altura 2x1 alternadas são processadas para cada componente Cr e Cb, ou se alguma outra forma de interpolação é executada. Uma coisa é certa ... a interpolação dos dados de origem é sempre maior que os dados de saída e nenhuma sobreposição (como na interpolação normal de camadas) ocorre até onde eu sei.
Finalmente, sRAW1 / mRAW e sRAW / sRAW2 são compactados usando um algoritmo de compactação sem perdas. Essa é uma distinção crítica entre esses formatos e JPEG, que também usa uma codificação do tipo ycc. O JPEG realiza compactação com perdas, tornando impossível restaurar os pixels de volta à sua representação original exata. Os formatos s / mRAW da Canon podem realmente ser restaurados de volta aos dados originais de imagem de 15 bits de precisão total.
Referências:
fonte
Em teoria, seria possível se a câmera usasse a estratégia certa para reduzir o tamanho da imagem.
Como você observou, nas câmeras atuais com sensores de corte, a imagem não processada permanece a mesma, independentemente do tamanho JPEG definido. A imagem JPEG é simplesmente dimensionada. Isso pode reduzir um pouco a aparência do ruído, mas a redução se deve ao algoritmo de dimensionamento da imagem (você não pode colocar tantos pixels pontilhados na imagem menor quanto na versão em tamanho normal). É mais provável, no entanto, que você seja capaz de fazer pelo menos o mesmo, se não melhor, se fizer a redução de ruído e se escalar após o fato.
Existe uma estratégia que produzirá uma verdadeira redução de ruído. Algumas partes traseiras de médio formato de alta resolução (como a série PhasePlus SensorPlus) usam uma estratégia chamada pixel binning , onde grupos de sensores adjacentes são tratados como um sensor muito maior e sua carga cumulativa é lida no sensor. Isso é diferente da leitura de cobranças individuais e da média (a que você está restrito no processamento pós-leitura) - ocorre no nível do hardware e altera o significado de "bruto". O ruído de leitura tem uma melhor chance de cancelar, e a carga cumulativa torna a conversão analógico-digital menos ambígua (a faixa de quanta convertidos é maior com menos amplificação).
Na prática, isso geralmente significa cortar a resolução em um fator de quatro (metade da largura e metade da altura). Com um verso de formato médio de 60 ou 80MP, isso ainda deixa você com uma imagem de 15 ou 20MP; com uma câmera com sensor de corte de 16 MP, você reduziria para uma imagem bruta de 4 MP. Agora você deve saber e eu posso saber que uma imagem limpa de 4 MP é melhor que uma imagem barulhenta de 16 MP, mas nem todo mundo aceita a ideia de que custa mais para produzir uma imagem menor. Isso significa que é improvável que você veja o bin bin de pixel em algo menos do que uma câmera de nível profissional em breve. Pode aparecer nas câmeras full-frame se a resolução delas continuar subindo, mas eu não a procuraria em um sensor de corte. (Bem, talvez Pentax possa levar uma facada algum dia, já que eles não fazem o tamanho completo.)
fonte
Se o ruído principal for o seu principal problema, uma solução é capturar vários quadros e ter um software com bons algoritmos que combine uma boa imagem de vários piores. Por exemplo ALE, o Anti-Lamenessing Engine faz isso. Para assuntos em movimento, obviamente isso não funciona, mas você pode fotografar com o computador de mão, por exemplo, na ISO 1600 e depois combinar as fotos para obter níveis de ruído próximos a ISO 400 ou 800.
fonte