No capítulo 26 do livro Inteligência Artificial: Uma Abordagem Moderna (3ª edição), o livro discute "singularidade tecnológica". Cita IJ Good, que escreveu em 1965:
Que uma máquina ultra-inteligente seja definida como uma máquina que pode superar em muito todas as atividades intelectuais de qualquer homem, por mais inteligente que seja. Como o design de máquinas é uma dessas atividades intelectuais, uma máquina ultra-inteligente pode projetar máquinas ainda melhores; inquestionavelmente haveria uma "explosão da inteligência", e a inteligência do homem ficaria para trás. Assim, a primeira máquina ultra-inteligente é a última invenção que o homem precisa fazer, desde que a máquina seja dócil o suficiente para nos dizer como mantê-la sob controle.
Posteriormente no livro, você tem esta pergunta:
26.7 - IJ Good afirma que a inteligência é a qualidade mais importante e que a construção de máquinas ultra-inteligentes mudará tudo. Uma chita senciente responde que "Na verdade a velocidade é mais importante; se pudéssemos construir máquinas ultra-rápidas, isso mudaria tudo" e um elefante senciente afirma: "Vocês dois estão errados; o que precisamos são de máquinas ultra-fortes", o que você acha disso? argumentos?
Parece que a pergunta do livro é um argumento implícito contra IJ Good. O bem pode estar tratando a inteligência como valiosa, simplesmente porque os pontos fortes do homem estão nessa característica chamada "inteligência". Mas outras características poderiam ser igualmente valorizadas (velocidade ou força) e os seres sencientes podem especular muito sobre suas características preferidas serem "maximizadas" por uma máquina ou outra.
Isso me faz pensar se uma singularidade poderia ocorrer se tivéssemos construído máquinas que não estavam maximizando a inteligência, mas maximizando alguma outra característica (uma máquina que está sempre aumentando sua força ou uma máquina que está sempre aumentando sua velocidade). Esses tipos de máquinas podem ser igualmente transformadores - as máquinas ultra-rápidas podem resolver problemas rapidamente devido à "força bruta", e as máquinas ultracongeladas podem usar sua força bruta para uma variedade de tarefas físicas. Talvez uma máquina ultra-X não possa construir outra máquina ultra-X (como a IJ Good tratava o design de máquinas como uma atividade intelectual), mas uma máquina que se aprimora continuamente ainda deixaria seus criadores para trás e forçaria seus criadores a serem depende disso.
As singularidades tecnológicas são limitadas às ultra-inteligências? Ou singularidades tecnológicas são causadas por máquinas que não são "IA fortes", mas ainda são "ultra" otimizadores?
fonte