Supondo que artefatos e elementos não naturais não existam na mídia em questão e que a mídia é indistinguível do olho humano, a única maneira de conseguir fazer isso é rastrear a origem das imagens.
É possível fazer uma analogia com o ataque DoS (Denial of Service), em que um número absurdo de solicitações é enviado de um único IP para um único servidor, causando uma falha - Uma solução comum é um honeypot, em que um grande número de solicitações de um O IP é redirecionado para um servidor de engodo onde, mesmo se travar, o tempo de atividade não é comprometido. Algumas pesquisas foram feitas nessas linhas em que este artigo falou sobre a verificação da assinatura digital de uma imagem ou desta onde propuseram a detecção de imagens adulteradas e a identificação da câmera de origem.
Uma vez rastreada até uma fonte, se um número absurdo de imagens potencialmente falsas vier de uma fonte singular, ela deve ser questionada.
O medo comum surge quando estamos lidando com algo, com base na analogia, como um ataque DDoS (Negação de Serviço Distribuída) em que cada solicitação falsa vem de uma fonte distribuída - a Network Security encontrou maneiras de lidar com isso, mas a segurança e a detecção de fraudes nos termos da IA simplesmente não está estabelecida.
Hoje em dia, basicamente, para uma mídia artificial bem pensada, com um propósito malicioso específico, é bastante difícil de ser detectada - mas o trabalho está sendo feito atualmente em segurança na IA. Se você planeja usar mídia artificial para fins maliciosos, eu diria que agora é provavelmente o melhor momento.
Esta segurança tem sido uma preocupação um pouco agora. Um artigo escrito por um cientista de dados cita
Os Deepfakes já foram usados para tentar assediar e humilhar mulheres através de vídeos pornográficos falsos. Na verdade, o termo vem do nome de usuário de um usuário do Reddit que estava criando esses vídeos através da criação de redes adversárias generativas (GANs) usando o TensorFlow. Agora, funcionários da inteligência estão falando sobre a possibilidade de Vladimir Putin usar vídeos falsos para influenciar as eleições presidenciais de 2020. Mais pesquisas estão sendo feitas sobre os deepfakes como uma ameaça à democracia e à segurança nacional, bem como sobre como detectá-los.
Nota - Não tenho noção da segurança da rede, todo o meu conhecimento vem de uma conversa com um amigo e achei que seria uma boa analogia para usar aqui. Perdoe quaisquer erros na analogia e, se possível, corrija!
As técnicas que você menciona usam GANs. A ideia principal dos GANs é que você tenha um gerador e um discriminador. O gerador gera novo conteúdo, o discriminador deve saber se o conteúdo é dos dados reais ou se foi gerado.
O discriminador é muito mais poderoso. Não deve ser muito difícil treinar um discriminador para detectar falsificações. Treinar um modelo capaz de identificar a manipulação e entender isso é uma prova de manipulação é mais difícil. É impossível obter uma prova de que algo não é manipulado.
Sobre a questão de como você lida com imagens photoshopadas: você observa as diferenças nos níveis de compactação na imagem. A palavra-chave a procurar é imagem forense: http://fotoforensics.com/tutorial-estq.php
fonte