Normalmente, uso o erro quadrático médio (MSE) ou a relação sinal-ruído de pico (PSNR) para comparar duas imagens, mas isso não é suficiente. Preciso encontrar uma fórmula que retorne uma distância muito grande entre uma imagem A e sua versão B pixelizada (ou borrada), mas não sei como proceder. Qual seria uma boa métrica para minhas necessidades?
image-processing
distance-metrics
lezebulon
fonte
fonte
Respostas:
O seguinte não pretende ser uma resposta, mas é uma estatística que nos ajudará a escolher uma técnica apropriada de comparação de imagens com base nas características das imagens que você está analisando.
O primeiro passo é plotar um "histograma delta" da seguinte maneira:
Dada a plotagem desse histograma, conheceremos um pouco mais sobre a "magnitude" das alterações que você está procurando e faremos melhores recomendações.
(Como alternativa, publique algumas imagens de amostra. Lembre-se de que, se as imagens de amostra não forem representativas das diferenças de imagem de seu interesse, poderemos fazer recomendações inferiores.)
Você também pode testar a similaridade estrutural (SSIM) em seu conjunto de imagens e postar seus resultados aqui. Lembre-se de que o SSIM foi projetado para imitar a capacidade do ser humano de reconhecer a obstrução da degradação da imagem, para que ele detecte pixelização, mas talvez não fique desfocado.
Se suas imagens não são imagens fotográficas (ou são imagens científicas que não são objetos comuns da fotografia), publique também exemplos de sua autocorrelação 2D, cortada e dimensionada adequadamente.
O reconhecimento de faces é um tópico muito grande para ser discutido em uma única pergunta. O desfoque surge em vários contextos no reconhecimento de rosto - pode ser um problema de qualidade de dados ou intencionalmente, como uma etapa intermediária no processamento de dados.
No reconhecimento de faces, queremos detectar a identidade das faces, portanto, temos que ignorar as diferenças de imagem que não são causadas por diferenças de identidade. A categoria básica de diferenças que devem ser ignoradas no reconhecimento de rosto são: pose, iluminação e expressão facial.
Uma abordagem geral para ignorar diferenças irrelevantes é chamada normalização , que tenta aplicar várias operações e transformações na imagem de entrada para obter uma imagem "canônica" ou "pré-processada", que por sua vez pode ser usada para identificação.
Uma segunda abordagem é extrair recursos de imagens altamente invariantes de fatores irrelevantes.
A qualidade de uma imagem de rosto está sujeita ao dispositivo de captura e ao ambiente em que foi capturada. Quando uma imagem de rosto é capturada sem a cooperação do sujeito (como de uma câmera de segurança), a baixa qualidade da imagem é uma consequência inevitável e teve que ser corrigida pelo software para não dificultar a identificação.
Na captura cooperativa, uma medida computadorizada da qualidade da imagem é boa: o operador pode ser notificado sobre problemas de qualidade e a imagem pode ser capturada novamente.
O desfoque também pode ser um exemplo de adulteração maliciosa da biometria para evitar a detecção (junto com oclusão e disfarce). Se a imagem for codificada digitalmente, uma soma de verificação digital e uma assinatura criptográfica são suficientes para resolver o problema completamente. Se a imagem borrada for submetida à impressão física por um imitador, uma medida computadorizada da qualidade da imagem facial poderá ser usada para rejeitar esses envios.
A falta de recursos localizáveis em 2D ou pontos de interesse em uma determinada parte da imagem facial pode ser um sinal de desfoque intencional.
No entanto, a ampla categoria de violação de imagem digital (por um usuário experiente do software de edição de imagem) só pode ser tratada com a análise forense de imagens digitais, que compara as estatísticas de pixels com os modelos de câmera conhecidos.
fonte