Várias das operações que você está descrevendo manipulam os dados na imagem para que as informações sejam perdidas ou transformadas. Na maioria das vezes, acho que isso não importa com a fotografia tradicional (isto é, impressões e afins), mas definitivamente importa quando cada pixel é considerado uma medida do número de fótons.
O que penso quando faço operações é a propagação de erros. O erro pode existir no nível de pixel único, no nível espacial e no nível de cor.
O ruído é um erro do sensor de pixel único durante o processo de detecção, introduzido por fótons errantes, efeitos quânticos (converter um fóton em elétron para contagem é um evento probabilístico no nível quântico) e analógico para conversão digital. Se operações subseqüentes fizerem coisas como esticar o contraste (equalização do histograma) ou enfatizar regiões mais escuras (luz de preenchimento), convém reduzir o ruído antes de fazer isso.
Para um exemplo completamente reduzido do que quero dizer, tire uma imagem de campo escuro (foto com a tampa da lente). O resultado é barulho. Você pode contrastar para melhorar isso, ou o que quiser, mas ainda é ruído. Um algoritmo perfeito de redução de ruído deve remover tudo, para que nenhum contraste seja encontrado para melhorar nas etapas posteriores.
O erro espacial pode ser introduzido de várias maneiras. Ao girar uma imagem, você introduz erros espaciais. Se você pensa que existe uma imagem 'verdadeira' (no sentido ideal platônico), a câmera grava uma versão digital disso. Mesmo quando você usa filme - os grãos / cristais do filme são de tamanho finito e algumas amostras da imagem 'verdadeira' acontecerão. Ao girar uma imagem digital, você introduz efeitos de alias. As arestas mais nítidas ficarão um pouco embotadas (a menos que você gire para 90 graus, nesse caso a amostragem da grade ainda se mantém). Para entender o que quero dizer, tire uma imagem e gire-a em incrementos de 1 grau. A borda afiada ficará agora (ligeiramente) embaçada por causa da amostragem necessária para fazer pequenas rotações.
A amostragem da Bayer pode ser apenas um erro de amostragem espacial com o qual temos que conviver. É um dos grandes atrativos (talvez o único atrativo real) para o sensor Foveon. Cada pixel mede a cor nesse local, em vez de obter as outras cores dos pixels vizinhos. Eu tenho um dp2, e devo dizer, as cores são bastante impressionantes em comparação com o meu d300. A usabilidade, nem tanto.
Os artefatos de compactação são outro exemplo de erro espacial. Comprima uma imagem várias vezes (abra um jpg, salve-o em um local diferente, feche, reabra, enxágue, repita) e você verá o que quero dizer aqui, especialmente com 75% de compressão.
Erros de espaço de cores são introduzidos quando você passa de um espaço de cores para o próximo. Se você pegar um png (sem perdas) e movê-lo de um espaço de cores para outro, salve-o. Depois, volte para o espaço de cores original, e verá algumas diferenças sutis em que as cores de um espaço não foram mapeadas para o outro.
Quando estou processando fotos, meu pedido geralmente é o seguinte:
- redução de ruído
- aprimoramento de contraste, exposições, etc.
- rotações
- espaço colorido
- compressão final na imagem de saída.
E eu sempre salvo o cru.
Como sempre, depende . De preferência, você usaria um editor não destrutivo, o Lightroom é um exemplo. Nesse caso, o pedido não faz muita diferença (alguma?).
Por outro lado, se você estiver usando um editor que faça as alterações à medida que avança, cada alteração será permanente e você terá alguma perda de qualidade.
Nessas situações, costumo fazer as menores alterações primeiro e trabalhar com as maiores.
Indo com essa ordem, eu provavelmente diria:
Dito isto, as únicas coisas com as quais me preocupo são as duas últimas, redimensionar no final e, depois de redimensionar, afiar .
fonte
Na prática, acho que são muito poucas operações em que a ordem faz uma diferença particular. Pode haver algumas situações em que você altera uma quantidade menor de dados no total, mas a preocupação com a edição destrutiva é exagerada. Voltei e refiz fotos muito raramente para alguns favoritos em particular; se cometi o que mais tarde considero um erro, prefiro fazer ajustes daqui para frente.
Penso que, em vez de pensar em termos de ordem, é mais útil pensar em termos de grupos de operações em interação.
Minha cópia de arquivo geralmente está após a etapa 3, mas ocasionalmente após a etapa 2, se 3 parecer particularmente experimental ou extremo.
fonte
(isso é mais um comentário do que uma resposta). A ordem faz a diferença, independentemente de você estar fazendo uma edição "não destrutiva" ou não.
O Photoshop é tão "nenhum destrutivo" quanto qualquer outro editor, dependendo de como você o usa. Você não está alterando o arquivo bruto original.
O ponto principal é que é mais fácil fazer algumas modificações antes de mudar dos valores lineares capturados pelo sensor para os valores de resposta de log usados para chamar sua atenção. É por isso que muito processamento nos últimos anos passou para o conversor bruto: é melhor fazer antes de mapeá-lo para a resposta do olho do log.
O conversor bruto é o melhor local para a maioria das alterações de "desenvolvimento" porque é antes da aplicação da correção gama. Tente ajustar o equilíbrio de cores antes e depois da conversão bruta para ter uma idéia da diferença. É claro que não tenho idéia em que ordem o conversor bruto faz a remoção de manchas e a redução de ruído (embora eu possa imaginar), mas não é particularmente relevante: é uma etapa do processamento.
No passado, as pessoas se preocupavam em fazer a maior parte do trabalho na profundidade máxima de bits e, em seguida, convertê-la em saída. Não há nada de errado com esse princípio, mas, na prática, você deve poder fazer tudo o que precisa no conversor bruto, portanto é um ponto discutível.
Claro, você precisa redimensionar e aumentar a nitidez nesse tamanho, o ponto esquecido por talvez 95% das pessoas que exibem imagens na web.
É diferente para impressões e saída da web. Para saída na Web, você precisa saber como o seu monitor se relaciona com os outros: é nítido ou não e as cores estão corretas? Depois de saber, você saberá quanto afiar. Na maioria das vezes, você verá que as impressoras são muito mais suaves; portanto, você geralmente deseja aumentar a nitidez da tela para que as impressões fiquem no local. A quantidade de nitidez excessiva que você precisará encontrar por tentativa e erro, pois as impressoras variam. Como você está editando de maneira não destrutiva, você pode aprimorar os dispositivos de saída específicos sem se preocupar com os originais.
fonte