Quais são os componentes necessários para tornar o agente de IA auto-programado?

9

Um agente de IA costuma ter componentes "sensores", "memória", "processadores de aprendizado de máquina" e "reação". No entanto, uma máquina com isso não se torna necessariamente um agente de IA de auto-programação. Além das partes mencionadas acima, existem outros elementos ou detalhes necessários para tornar uma máquina capaz de ser um agente de IA de programação automática?

Por exemplo, um artigo de 2011 declarou que resolver o problema de otimização de maximizar a inteligência é um recurso essencial para o processo de auto-programação, conforme citado abaixo:

Diz-se que um sistema executa uma instância de auto-programação quando é submetido a um aprendizado referente a algum elemento de sua "infraestrutura cognitiva", onde este é definido como o conjunto nebuloso de recursos "críticos para a inteligência" do sistema; e a criticidade da inteligência de um recurso do sistema é definida como sua "qualidade do recurso", considerada da perspectiva de resolver o problema de otimização de maximizar a inteligência de um sistema com vários recursos.

No entanto, essa descrição de "otimização da inteligência" é vaga. Alguém pode dar uma definição clara ou um resumo melhor para os componentes necessários para agentes de auto-programação?

Esta pergunta é da versão beta fechada de 2014, com o solicitante com um UID de 23.

Mithical
fonte
3
Aqui é praticamente a última palavra sobre a auto-otimização: arxiv.org/abs/cs/0309048
NietzscheanAI
Obrigado pelo renascimento do conteúdo perdido e bom na versão beta perdida. :-)
peterh - Restabelece Monica

Respostas:

5

No nível mais alto, tudo o que precisa é que os vários sistemas já discutidos incorporem objetos de código. Se ele puder interpretar sua arquitetura de código-fonte / modelo a partir dos objetos de texto formatados que os sustentam, poderá 'entendê-los em termos de ter um modelo de ML útil e alterar o código com sua reação, e poderá se auto-programar.

Ou seja, o ciclo básico por trás de uma inteligência que melhora recursivamente é simples. Ele se examina, escreve uma nova versão e, em seguida, essa nova versão se examina e escreve uma nova versão, e assim por diante.

O componente difícil vem em níveis mais baixos. Não precisamos inventar um novo conceito como 'sensor', o que precisamos fazer é criar sensores muito, muito sofisticados, que são iguais à tarefa de entender o código suficientemente bem para detectar e escrever melhorias.

Matthew Graves
fonte
2
Embora a reação instintiva da ciência da computação a declarações sobre sistemas que entendam seu próprio código frequentemente cite o problema de parada, verifica-se que as abordagens de IA têm algo útil a dizer sobre isso: cs.stackexchange.com/questions/62393/ ...
NietzscheanAI
3
Certo, o Halting Problem é um teorema de no-go para entender completamente todo o código possível , mas não impede que se tenha um bom entendimento da maioria dos códigos que você realmente encontra.
Matthew Graves
Realisticamente, o problema da parada realmente se aplica apenas a "máquinas de tornear", que são construções matemáticas puras que não podem realmente existir (elas exigem uma fita infinita para memória ilimitada, por exemplo) e podem funcionar por um tempo infinito. Os computadores do mundo real têm quantidades limitadas de memória. Existem maneiras de escrever software que pode ser formalmente verificado (Idris, Coq). Usando tipos dependentes. Limite o tamanho de uma matriz (ou seja, <a quantidade ou ram). Não permitindo que um programa se modifique na memória de maneira a violar as provas formais. Sem loops infinitos. Nenhum loop de byte / divisão por zero. Etc ...
David C. Bishop