Imagine tentar criar um ambiente virtual simulado que seja complicado o suficiente para criar uma "IA geral" (que eu defino como uma AI autoconsciente), mas que seja o mais simples possível. Como seria esse ambiente mínimo?
Um ambiente que era apenas um jogo de xadrez seria muito simples. Um programa de xadrez não pode ser uma IA geral.
Um ambiente com vários agentes jogando xadrez e comunicando seus resultados entre si. Isso constituiria uma IA geral? (Se você pode dizer que um grão-mestre de xadrez que pensa em xadrez o dia inteiro tem 'IA geral'? Durante seu tempo pensando em xadrez, ele é diferente de um computador de xadrez?).
Que tal um mundo sim-3D 3D. Isso parece ser muito complicado. Afinal, por que uma IA geral não pode existir em um mundo 2D.
O que seria um exemplo de um ambiente simples, mas não tão simples que as IAs possam ter autoconsciência?
Respostas:
Acho que essa é uma das melhores perguntas relacionadas à AGI que eu já vi neste fórum.
Vou pular todas as temáticas sobre "o que é um AGI", "jogo de simulação", ... Esses tópicos foram discutidos durante décadas e atualmente são, na minha opinião, um beco sem saída.
Assim, só posso responder com minha experiência pessoal:
É um teorema básico na computação que qualquer número de dimensões, incluindo temporal, em um espaço de tamanho finito, pode ser reduzido para 1D.
No entanto, em exemplos práticos, a representação 1D se torna difícil de analisar e visualizar. É um trabalho mais prático com gráficos, que pode ser visto como um intermediário entre 1D e 2D. Os gráficos permitem a representação de todos os fatos e relações necessários.
Por exemplo, se tentarmos desenvolver uma AGI capaz de trabalhar na área da matemática, qualquer expressão (que humanos escrevemos em uma representação 2D com racionais, subscritos, integrais, ...) pode ser representada como 1D (como uma expressão escrito em uma fonte de programa), mas este 1D deve ser analisado para alcançar o gráfico que pode ser analisado ou executado. Assim, o gráfico que resulta após a análise da expressão é a representação mais prática.
Outro exemplo, se queremos um agente que viaja por um mundo 3D, esse mundo pode ser visto como um espaço vazio com objetos que possuem algumas propriedades. Novamente, após o estágio inicial da análise de cenas e do reconhecimento de objetos (o equivalente ao analisador no exemplo anterior), chegamos a um gráfico.
Portanto, para realmente trabalhar na área de AGI, sugiro pular os problemas de análise de cenas, reconhecimento de objetos, reconhecimento de fala (Narrow AI) e trabalhar diretamente sobre os gráficos representativos.
fonte
Eu acho que o mais importante é que tenha que simular o tempo de alguma forma. Pense no chatbot autoconsciente. Então, para ser "autoconsciente", o ambiente pode ser um dado alimentado ao longo do tempo, que pode ser distinguido como "auto" e "outro". Com isso, suponho que quero dizer "eu" é a parte que influencia diretamente e "outro" é a parte que é influenciada indiretamente ou de modo algum. Fora isso, provavelmente pode viver em ambientes bastante abstratos. A razão pela qual o tempo é tão importante é que sem ele o algoritmo cognitivo está apenas resolvendo um problema de matemática.
fonte
A IA geral pode existir absolutamente em um mundo 2D, apenas que uma AI generalizada (definida aqui como "força consistente em um conjunto de problemas") nesse contexto ainda seria bastante distinta de uma Inteligência Geral Artificial , definida como "um algoritmo que pode executar qualquer tarefa intelectual que um ser humano possa ".
Mesmo lá, a definição de AGI é confusa, porque "qual humano?" (A inteligência humana é um espectro, onde os indivíduos possuem diferentes graus de capacidade de resolução de problemas em diferentes contextos.)
Consciência artificial : Infelizmente, a autoconsciência / consciência é uma questão fortemente metafísica, distinta da capacidade de resolver problemas (inteligência).
Você definitivamente quer olhar para o " Chinese Room " e refutações.
Provavelmente vale a pena examinar o princípio holográfico : "um conceito em física pelo qual um espaço é considerado como um holograma de dimensões n-1". Certamente modelos e jogos podem ser estruturados dessa maneira.
Outro lugar para explorar são as teorias do surgimento da superinteligência no infinito Jogo da Vida de Conway . (Em poucas palavras, meu entendimento é que, uma vez que os pesquisadores descobriram como gerar qualquer número dentro dos autômatos celulares, a possibilidade de senciência emergente, dada uma placa de jogo de tamanho suficiente, é pelo menos teoricamente correta.)
fonte
Das respostas até agora, as de @DukeZhou foram as mais provocativas. Por exemplo, a referência à crítica da Sala Chinesa traz à tona a afirmação de Searle de que alguma forma de intencionalidade pode precisar de apoio no ambiente artificial. Isso pode implicar a necessidade de um sistema de valores ou um sistema de dor e prazer, ou seja, algo em que boas consequências possam ser "experimentadas" ou procuradas ativamente e más conseqüências evitadas. Ou algum potencial de extinção individual (morte ou rescisão) pode precisar ser reconhecido. A possibilidade de "morte do ego"pode precisar de um valor negativo alto. Isso pode implicar que um mundo artificial deve incluir "outras mentes" ou outros agentes, que o agente inteligente emergente ou aprendente possa observar (em algum sentido) e "refletir", ou seja, reconhecer uma inteligência como a sua. Nesse sentido, o silogismo cartesiano "Eu penso, logo existo" é transmutado em: eu (ou melhor, eu como uma IA) vejo evidências de que os outros pensam e "por Deus, eu também posso". Esses "outros" podem ser outros sistemas de aprendizagem (AGI) ou algum contato com informações discretas de seres humanos mediadas pelo ambiente artificial. Discussão na Wikipedia sobre "teste de Turing reverso"
A menção da dimensionalidade deve provocar uma discussão sobre qual seria a profundidade necessária de representação de uma "física" do mundo externo à IA. Alguma representação do tempo e do espaço pareceria necessária, isto é, uma subestrutura dimensional para o progresso na consecução dos objetivos. O mundo dos blocos foi um dos primeiros problemas de brinquedos, cuja solução provocou otimismo nas décadas de 60 e 70 do século passado, que avanços substanciais estavam sendo feitos. Não estou ciente de nenhum esforço para programar qualquer dor ou prazer no programa SHRDLU daquela época (sem deixar cair os dedos dos pés do programa), mas todas as representações interessantes de ficção científica das IA têm algum reconhecimento de consequências adversas "físicas" no mundo real".
Edit: Vou adicionar a necessidade de "entidades com recursos" neste ambiente que possam ser "percebidas" (por qualquer um dos "outros" que estão interagindo com a AGI) como entrada de dados para os esforços de indução, identificação e inferência sobre relacionamentos. Isso cria uma base para uma "experiência" compartilhada.
fonte
Embora seja uma boa resposta de @pasaba por aqui, eu concordo com o @zooby que um gráfico pode ser muito simplista. Se os humanos estivessem em um ambiente em que as opções fossem afogadas ou seguissem 5000 etapas não relacionadas para construir um barco, nunca teríamos cruzado o mar. Eu acho que qualquer gráfico, se desenhado à mão, não seria suficientemente complexo para chamar o agente como IA geral. O mundo precisaria de estados intermediários suficientes para não ser mais descrito como um gráfico, mas pelo menos como um espaço multidimensional.
Eu acho que existem 2 pontos que você teria que considerar. O que é "simples" e quando você o reconheceria como uma "IA geral". Não acho a IA auto-consciente satisfatória, pois não podemos medir nada chamado consciência; só podemos ver seu estado e sua interação com o meio ambiente.
Para 1. Eu diria que o mundo em que vivemos é realmente bastante simples. Existem 4 forças da natureza, algumas leis de conservação e vários tipos de partículas que explicam quase tudo. É só que existem muitas dessas partículas e isso levou a um mundo bastante complexo. Obviamente, isso é caro para simular, mas podemos usar alguns atalhos. As pessoas há 200 anos não precisariam de toda a mecânica quântica para explicar o mundo. Se substituíssemos prótons, nêutrons e a força forte pelos átomos na tabela periódica, estaríamos bem. O problema é que substituímos mais 3 leis gerais por 100 instâncias específicas. Para que o ambiente simulado seja suficientemente complexo, acho que essa tendência deve se manter.
O que me leva a 2. Acho que ficaríamos realmente satisfeitos com o agente que expressa a IA geral quando ele pode interagir de propósito com o meio ambiente de uma maneira que nos confundiria, enquanto claramente se beneficiava dele (de modo que não acidentalmente). Agora que isso pode ser bastante difícil ou levar muito tempo, uma condição mais relaxada seria criar ferramentas que esperávamos que ele construísse, mostrando assim o domínio de seu próprio ambiente. Por exemplo, evidências de barcos foram encontradas em algum lugar entre 100 mil e 900 mil anos atrás, o que é aproximadamente a mesma escala de tempo em que os primeiros humanos se desenvolveram.. No entanto, embora nos consideremos inteligentes, não tenho certeza se consideraríamos que um agente de fabricação de barcos tivesse inteligência geral, pois parece uma invenção bastante simples. Mas acho que ficaríamos satisfeitos após algumas dessas invenções.
Então, acho que precisaríamos de um mundo parecido com um Sim, que é muito mais complicado que o jogo. Com milhares de tipos de itens, muitas instâncias de cada item e graus de liberdade suficientes para interagir com tudo. Também acho que precisamos de algo que pareça familiar para reconhecer qualquer agente como inteligente. Portanto, um mundo 3D complicado e parecido com um minecraft seria o mundo mais simples em que reconheceríamos o surgimento da inteligência geral.
fonte
"Inteligência Geral Artificial" é algo diferente de um agente que age de maneira inteligente em um ambiente. Porque, de acordo com a literatura, esses agentes são chamados de "IA estreita". Um sistema AGI é o meio ambiente. Isso significa que o último desafio da Micromouse é um sistema AGI que tem como objetivo desenvolver sistemas de IA estreitos.
Desenvolver uma AGI é igual a desenvolver uma competição de robótica. É formalizado em um livro de regras e atua como um ambiente para aprender, programar software e discutir os resultados. Em qualquer caso, um sistema AGI é uma competição social, o que significa que é atraente para as equipes participarem da competição. A AGI não responde como realizar a inteligência, é um teste para medi-la. Os chamados cérebros humanos, a arquitetura cognitiva e os solucionadores de problemas em geral não foram desenvolvidos como uma IA estreita para agir de forma inteligente; foram desenvolvidos como um teste de turing para uma máquina que é inteligente.
Como podemos medir com um programa de computador se outro programa de computador é inteligente? Uma possibilidade é a teoria da simulação humana. Isso significa que estamos testando se o programa de computador se comporta como humano e o teste de turing tem a obrigação de testar a memória de curto prazo, a memória de longo prazo e a capacidade de aprender coisas novas. Na sua forma mais fácil, o teste de turing pode ser feito com um formulário simples que deve ser preenchido como humano, mas também é possível tirar o humano do circuito e usar um computador para testar a inteligência de outro computador. . Esse é o objetivo: SOAR, OpenCog e AIXI foram desenvolvidos.
fonte