Não , com um mas . Podemos ter uma solução criativa e ética de problemas se o sistema tiver um sistema completo de ética, mas, caso contrário, a criatividade será insegura por padrão.
Pode-se classificar as abordagens de tomada de decisão da IA em dois tipos: pensadores interpolativos e pensadores extrapolativos.
Os pensadores interpolativos aprendem a classificar e imitar o que aprendem e não tentam fornecer resultados razoáveis fora do domínio do treinamento. Você pode pensar neles como interpolando entre exemplos de treinamento e se beneficiando de todas as garantias e condições matemáticas como outras técnicas estatísticas.
Pensadores extrapolativos aprendem a manipular princípios subjacentes, o que lhes permite combinar esses princípios de maneiras anteriormente não consideradas. O campo relevante para a intuição aqui é a otimização numérica , da qual o exemplo mais simples e famoso é a programação linear , em vez dos campos estatísticos que deram origem ao aprendizado de máquina. Você pode pensar nelas como extrapolando além dos exemplos de treinamento (na verdade, muitos deles nem sequer exigem exemplos de treinamento ou usam esses exemplos para inferir princípios subjacentes).
A promessa dos pensadores extrapoladores é que eles possam apresentar essas soluções "laterais" muito mais rapidamente do que as pessoas seriam capazes. O problema com esses pensadores extrapoladores é que eles usam apenas os princípios falados, e não os não falados, que podem parecer óbvios demais para serem mencionados.
Um atributo das soluções para os problemas de otimização é que o vetor de recurso geralmente é "extremo" de alguma forma. Na programação linear, pelo menos um vértice do espaço de solução viável será ideal e, portanto, métodos simples de solução encontram um vértice ideal (que é quase inviável por natureza de ser um vértice).
Como outro exemplo, a solução de combustível mínimo para mover uma espaçonave de uma posição para outra é chamada de ' bang-bang ', em que você acelera a nave o mais rápido possível no início e no final da trajetória, navegando na velocidade máxima entre elas. .
Embora seja uma virtude quando o sistema é entendido corretamente (bang-bang é ideal para muitos casos), isso é catastrófico quando o sistema é entendido incorretamente. Meu exemplo favorito aqui é o problema da dieta de Dantzig (a discussão começa na página 5 do pdf), onde ele tenta otimizar sua dieta usando a matemática. Sob seu primeiro conjunto de restrições, ele deveria beber 500 galões de vinagre por dia. Sob o segundo, 200 cubos de caldo de carne. Sob o terceiro, dois quilos de farelo. As considerações que tornam essas idéias obviamente ruins não são inseridas no sistema e, portanto, o sistema as sugere inocentemente.
Se você puder codificar completamente o conhecimento e os valores que uma pessoa usa para julgar esses planos na IA, os sistemas extrapolativos são tão seguros quanto essa pessoa. Eles serão capazes de considerar e rejeitar o tipo errado de planos extremos e deixar você com o tipo certo de planos extremos.
Mas se você não pode, faz sentido não construir um tomador de decisão extrapolativo e, em vez disso, construir um interpolativo. Ou seja, em vez de se perguntar "como melhor realizo o objetivo X?" está se perguntando "o que uma pessoa faria nessa situação?". O último pode ser muito pior no cumprimento do objetivo X, mas tem muito menos risco de sacrificar outros objetivos para atingir o X.