Os jornais de sábado: A IA mentiria para você? é um post de blog resumindo um trabalho de pesquisa chamado Em direção a personagens que observam, contam, lembram e mentem . Este trabalho de pesquisa detalha os planos de alguns pesquisadores de implementar "modelos mentais" para NPCs em videogames. Os NPCs reunirão informações sobre o mundo e transmitirão esse conhecimento a outras pessoas (incluindo jogadores humanos). No entanto, eles também "se lembram" desse conhecimento ("mutando" esse conhecimento ou apenas esquecendo-o) ou até mentem:
Quando um assunto de conversa é abordado, um personagem pode transmitir informações falsas - mais precisamente, informações nas quais ela mesma não acredita - para seu interlocutor. Atualmente, isso acontece probabilisticamente de acordo com a afinidade de um personagem em relação ao interlocutor, e a desinformação é escolhida aleatoriamente.
Mais tarde, no trabalho de pesquisa, eles detalharam seus planos futuros para mentir:
Atualmente, as mentiras são armazenadas apenas no conhecimento dos personagens que as recebem, mas planejamos que os personagens que as contam também as acompanhem, para que possam raciocinar sobre as mentiras passadas ao construir as subsequentes. Enquanto os personagens atualmente mentem apenas sobre outros personagens, planejamos também implementar mentiras egocêntricas (DePaulo 2004), por exemplo, personagens mentindo sobre seus cargos ou relacionamentos com outros personagens. Finalmente, imaginamos personagens que descobrem que foram enganados a revisar suas afinidades com os mentirosos, ou mesmo confrontá-los.
O trabalho de pesquisa também detalhou como outros desenvolvedores de videogames tentaram criar NPCs mentirosos, com ênfase em como o sistema deles difere:
Os caracteres TALE-SPIN podem mentir um para o outro (Meehan 1976, 183-84), embora de maneira arbitrária, como na atual implementação do sistema. GOLEM implementa uma variante mundial de blocos em que os agentes enganam os outros para alcançar objetivos (Castelfranchi, Falcone e De Rosis 1998), enquanto Mouth of Truth usa uma representação probabilística da crença no caráter para alimentar o engano do agente em uma variante do jogo de imitação de Turing (De Rosis et al. 2003). Em Christian (2004), um planejador de fraude injeta um estado mundial impreciso nas crenças de um agente-alvo, para que ele possa executar ações involuntárias que atendem a metas ocultas de um agente enganador. Por fim, os agentes na extensão de Reis (2012) ao FAtiMA empregam vários níveis de teoria da mente para enganar um ao outro no jogo de festa Lobisomem. Embora todos os sistemas acima mostrem caracteres que percebem - e, em alguns casos, enganam - outros caracteres, nenhum parece suportar os seguintes componentes principais do nosso sistema: propagação do conhecimento e falibilidade da memória. ...
Como alguns outros sistemas mencionados acima, o Dwarf Fortress também apresenta personagens que mentem autonomamente. Quando um personagem comete um crime, ele pode implicar falsamente alguém em um relatório de testemunha a um xerife, para se proteger ou até para enquadrar um inimigo. Esses relatos de testemunhas, no entanto, são vistos apenas pelo jogador; caracteres não dão relatórios de testemunhas falsas um ao outro. Eles podem, no entanto, mentir sobre suas opiniões, por exemplo, por medo de repercussões ao criticar um líder. Finalmente, o Dwarf Fortress atualmente não modela questões de falibilidade da memória - Adams desconfia que tais fenômenos pareçam surgir de bugs, se não forem expressos artisticamente ao jogador.
Não.
Nisso a pergunta inclui "conscientemente", o que exigiria que qualquer IA soubesse alguma coisa. Se isso é algo como a maneira como os seres humanos sabem as coisas (embora, curiosamente, não exija realmente saber coisas), isso exigiria algum senso de individualidade, provavelmente autoconsciência, possivelmente algum tipo de consciência, capacidade de emitir uma opinião e provavelmente alguma maneira de testar seu conhecimento. A maioria desses recursos só existe, na melhor das hipóteses, sem dúvida.
Além disso, o termo "mentira" implica um senso de interesse próprio, um entendimento independente do fluxo de recursos no sentido da teoria dos jogos, e não trivialmente, um entendimento sobre se a outra entidade na conversa está mentindo, a fim de fazer uma decisão com qualquer grau de precisão. Portanto, nenhuma IA pode mentir para ninguém além dos cenários triviais sugeridos nas outras respostas, renderizando informações falsas com base em determinados contextos, o que é apenas uma simples entrada / saída.
Como desenvolvedor de software experiente, posso atestar o fato de que, se o objetivo é renderizar a saída correta com base em qualquer entrada, na verdade é pelo menos tão fácil, se não muito mais fácil, render informações falsas.
fonte
Sim.
Deixe-me demonstrar fazendo uma IA mentirosa agora. (código python)
E enganador:
AI é um termo tão geral. Pode ser usado para descrever quase tudo. Você não especificou que tinha que ser uma IA geral.
AI não pode pensar. Eles são programas de computador. Eles não têm alma ou vontade. É apenas o programador (ou se foi projetado através da evolução ... ninguém , mas isso é fora de tópico) que pode conscientemente programar uma IA para mentir.
Sim, isso aconteceu. Isso é chamado de malware. Alguns malwares avançados falarão com você, fingindo ser suporte técnico e responderão com respostas humanas comuns. Mas você pode dizer "bem, realmente não 'entende'". Mas isso seria fácil. Rede neural + mais CPU do que existe no planeta * (existirá em alguns anos e será acessível) + alguns exemplos de respostas = AI da Rede Neural (a mesma coisa no yo noggin) que entende e responde.
Mas isso não é necessário. Uma rede neural relativamente `simples, com apenas alguns supercomputadores que poderiam caber em uma sala, poderia convencer um humano. Não entende.
Então, é realmente ...
Tecnicamente, não, mas é possível e se você esticar as regras, sim.
* Ou ainda mais simples:
Acreditação: sou um programador (veja minha conta do Stack Overflow) que conhece um pouco sobre IA.
fonte
Sim.
fonte