Uma singularidade tecnológica pode ocorrer apenas com superinteligência?

10

No capítulo 26 do livro Inteligência Artificial: Uma Abordagem Moderna (3ª edição), o livro discute "singularidade tecnológica". Cita IJ Good, que escreveu em 1965:

Que uma máquina ultra-inteligente seja definida como uma máquina que pode superar em muito todas as atividades intelectuais de qualquer homem, por mais inteligente que seja. Como o design de máquinas é uma dessas atividades intelectuais, uma máquina ultra-inteligente pode projetar máquinas ainda melhores; inquestionavelmente haveria uma "explosão da inteligência", e a inteligência do homem ficaria para trás. Assim, a primeira máquina ultra-inteligente é a última invenção que o homem precisa fazer, desde que a máquina seja dócil o suficiente para nos dizer como mantê-la sob controle.

Posteriormente no livro, você tem esta pergunta:

26.7 - IJ Good afirma que a inteligência é a qualidade mais importante e que a construção de máquinas ultra-inteligentes mudará tudo. Uma chita senciente responde que "Na verdade a velocidade é mais importante; se pudéssemos construir máquinas ultra-rápidas, isso mudaria tudo" e um elefante senciente afirma: "Vocês dois estão errados; o que precisamos são de máquinas ultra-fortes", o que você acha disso? argumentos?

Parece que a pergunta do livro é um argumento implícito contra IJ Good. O bem pode estar tratando a inteligência como valiosa, simplesmente porque os pontos fortes do homem estão nessa característica chamada "inteligência". Mas outras características poderiam ser igualmente valorizadas (velocidade ou força) e os seres sencientes podem especular muito sobre suas características preferidas serem "maximizadas" por uma máquina ou outra.

Isso me faz pensar se uma singularidade poderia ocorrer se tivéssemos construído máquinas que não estavam maximizando a inteligência, mas maximizando alguma outra característica (uma máquina que está sempre aumentando sua força ou uma máquina que está sempre aumentando sua velocidade). Esses tipos de máquinas podem ser igualmente transformadores - as máquinas ultra-rápidas podem resolver problemas rapidamente devido à "força bruta", e as máquinas ultracongeladas podem usar sua força bruta para uma variedade de tarefas físicas. Talvez uma máquina ultra-X não possa construir outra máquina ultra-X (como a IJ Good tratava o design de máquinas como uma atividade intelectual), mas uma máquina que se aprimora continuamente ainda deixaria seus criadores para trás e forçaria seus criadores a serem depende disso.

As singularidades tecnológicas são limitadas às ultra-inteligências? Ou singularidades tecnológicas são causadas por máquinas que não são "IA fortes", mas ainda são "ultra" otimizadores?

SE esquerdo em 10_6_19
fonte

Respostas:

4

Isso seria um não para velocidade ou força, se você tiver uma entidade super forte, mas ela não puder pesquisar novos materiais, ela será rapidamente limitada, a mesma coisa para velocidade. Basicamente, você precisa de algo fora do campo deles para melhorá-los, o que torna uma melhoria descontrolada impossível.

No entanto, já temos máquinas super fortes e super rápidas, são carros, caminhões, prensas hidráulicas, exoesqueletos industriais etc ... Mas, embora possamos construir melhores com o uso das antigas, ainda precisamos pesquisar coisas que não pode ser melhorado pelos antigos.

O que precisamos para uma singularidade é um campo em que uma melhoria facilite a melhoria. E não conheço um campo em que isso não envolva inteligência. Se houver, pode ser possível ter uma singularidade não orientada por inteligência lá.

satibel
fonte
0

"Monte Carlo" parece ser o melhor método atualmente para criatividade algorítmica. (ou seja, a máquina faz escolhas aleatórias e vê se elas levam a algo útil.)

Embora pareça óbvio que as conexões criativas formadas a partir do entendimento sejam superiores às aleatórias, se a máquina for rápida o suficiente, ela poderá vencer por pura "força bruta".

isto é, a evolução, antes da orientação humana, não foi baseada na inteligência. * Antes, a evolução foi baseada em mutações aleatórias que são benéficas ou prejudiciais.


* A ressalva é que os seres humanos que criam algoritmos e alteram genes (em laboratório ou por meio de criação e horticultura de animais) podem ser considerados como compreendendo uma nova forma de evolução que está realmente enraizada na inteligência e no desejo humanos.

DukeZhou
fonte
-1

Pode não ser o que você estava procurando, mas tecnicamente sim. Embora não seja por velocidade e força. Mas você poderia adivinhar aleatoriamente novas soluções matemáticas / físicas / químicas para se tornar mais eficiente na adivinhação aleatória (basicamente qualquer coisa que permita que a máquina calcule mais rapidamente e talvez simular o efeito dessas descobertas), alcançando tecnicamente algo semelhante a uma singularidade, sem ter ter qualquer Inteligência, na verdade (ou apenas no nível humano), já que você pode apenas forçar a força bruta.

Isso é eficiente? Não, nem mesmo perto de ser viável. Funciona? Tecnicamente, sim.

Seria uma espécie de singularidade, uma vez que se aprimora continuamente, mas não precisa melhorar sua própria inteligência.

Obviamente, algumas descobertas podem tornar mais inteligentes, mas vamos supor que ela não se aplique a elas mesmas.

Lexyth
fonte