Qual é o conceito de singularidade tecnológica?

32

Ouvi a ideia da singularidade tecnológica, o que é e como ela se relaciona com a Inteligência Artificial? É este o ponto teórico em que as máquinas de Inteligência Artificial progridem até o ponto em que crescem e aprendem por conta própria além do que os humanos podem fazer e seu crescimento decola? Como saberíamos quando chegarmos a esse ponto?

WilliamKF
fonte

Respostas:

20

A singularidade tecnológica é um ponto teórico no tempo em que uma inteligência geral artificial auto-aperfeiçoada se torna capaz de entender e manipular conceitos fora do alcance do cérebro humano, ou seja, o momento em que ele pode entender as coisas que os seres humanos, por design biológico, podem ' t.

A imprecisão sobre a singularidade vem do fato de que, a partir dessa singularidade, a história é efetivamente imprevisível. A humanidade seria incapaz de prever quaisquer eventos futuros ou explicar quaisquer eventos presentes, pois a própria ciência se torna incapaz de descrever eventos acionados por máquinas. Essencialmente, as máquinas pensariam em nós da mesma maneira que pensamos nas formigas. Assim, não podemos fazer previsões além da singularidade. Além disso, como conseqüência lógica, seríamos incapazes de definir o ponto em que a singularidade pode ocorrer, ou mesmo reconhecê-la quando isso acontecer.

No entanto, para que a singularidade ocorra, é necessário desenvolver a AGI, e se isso é possível é um debate bastante quenteagora mesmo. Além disso, um algoritmo que cria inteligência sobre-humana a partir de bits e bytes teria que ser projetado. Por definição, um programador humano não seria capaz de fazer isso, pois seu cérebro precisaria compreender conceitos além de seu alcance. Há também o argumento de que uma explosão de inteligência (o mecanismo pelo qual uma singularidade tecnológica seria teoricamente formada) seria impossível devido à dificuldade do desafio do projeto de tornar-se mais inteligente, aumentando proporcionalmente à sua inteligência, e que a dificuldade do próprio design pode ultrapassar a inteligência necessária para solucionar o desafio (crédito de último ponto a deus dos lhamas nos comentários).

Além disso, existem teorias relacionadas envolvendo máquinas que dominam a humanidade e toda essa narrativa de ficção científica. No entanto, é improvável que isso aconteça, se as leis de Asimov forem seguidas adequadamente. Mesmo que as leis de Asimov não fossem suficientes, ainda seria necessário uma série de restrições para evitar o uso indevido de AGI por indivíduos mal intencionados, e as leis de Asimov são as mais próximas que temos disso.

3442
fonte
Há também o argumento de que uma explosão de inteligência (o mecanismo pelo qual uma singularidade tecnológica seria teoricamente formada) seria impossível devido à dificuldade do desafio do projeto de tornar-se mais inteligente, aumentando proporcionalmente à sua inteligência, e que a dificuldade de o desafio do projeto pode ultrapassar a inteligência necessária para resolver o desafio do projeto. << você pode adicionar isso à sua resposta para torná-la mais completa / abrangente.
deus da lhamas
1
As leis da robótica de Asimov não são levadas a sério, elas foram criadas para mostrar as várias maneiras pelas quais poderiam dar errado e serem mal interpretadas pela IA (supondo que a IA não se torne inteligente o suficiente para ignorá-las completamente e criar sua própria intenções e objetivos) e era sobre isso que as histórias eram. Veja este vídeo .
deus da lhamas
@ godofllamas: Obrigado pela sua proposta, atualizei a resposta em conformidade. Em relação às leis de Asimov, AFAIK, a lei zeroth foi projetada precisamente para evitar as muitas maneiras pelas quais as três leis originais foram (ab) usadas nas histórias de Asimov. De qualquer forma, uma IA definitivamente precisaria ser restringida de alguma forma, seja pelas leis de Asimov ou qualquer outra coisa, para evitar possível uso indevido dela e mais danos.
3442
Compreender coisas que os humanos não podem não é um requisito da teoria da singularidade na IA. Se as máquinas pudessem entender apenas 1% do que os humanos entendem, mas pudessem dobrar esse nível de entendimento a cada ano, a singularidade teria ocorrido. Mesmo se a máquina nunca exceder qualitativamente o cérebro humano, se puder processar mais rápido ou mais confiável, ainda exibirá superioridade e provavelmente alcançará domínio.
FauChristian
3

O conceito de "singularidade" é quando as máquinas são mais espertas que os humanos. Embora a opinião de Stephen Hawking seja de que essa situação é inevitável, mas acho que será muito difícil chegar a esse ponto, porque todo algoritmo de IA precisa ser programado por seres humanos, portanto, seria sempre mais limitado que seu criador.

Provavelmente saberíamos quando é que a humanidade perderá o controle sobre a Inteligência Artificial, onde a IA super-inteligente estaria em concorrência com os seres humanos e talvez a criação de seres inteligentes mais sofisticados ocorra, mas atualmente é mais como ficção científica (também conhecida como Terminator's Skynet ).

O risco pode envolver a morte de pessoas (como drones de guerra que tomam suas próprias decisões), a destruição de países ou até de todo o planeta (como a IA conectada às armas nucleares (também conhecido como filme WarGames ), mas isso não prova o ponto de partida. as máquinas seriam mais inteligentes que os humanos.

kenorb
fonte
`todo algoritmo de IA precisa ser programado por seres humanos` -> A idéia geral por trás da IA ​​é que as máquinas podem aprender melhorando sua própria programação. Teoricamente, isso pode resultar em máquinas que se tornam mais inteligentes do que nós e que são capazes de criar algoritmos superiores a qualquer algoritmo escrito por humanos, o que, por sua vez, resultaria em uma IA ainda melhor.
John Slegers
"todo algoritmo de IA precisa ser programado por seres humanos, portanto, seria sempre mais limitado que seu criador" - este é um argumento interessante. os seguintes argumentos são contra-argumentos -1) não precisamos codificar a inteligência da IA. precisamos codificar a IA para capacidade de observar, inferir e entender. Depois disso, presumivelmente, apenas a adição de mais poder de processamento e outros mais rápidos tornaria a IA capaz de aprender e compreender melhor do que nós.2) Além disso, se 1.000 seres humanos aplicarem seu cérebro na construção de uma IA, a IA poderá ter mais inteligência do que 1 humano.
akm
Os algoritmos NÃO precisam ser programados por seres humanos. É possível e realmente um tanto comum transformar, alterar, otimizar, avaliar e selecionar algoritmos; e as máquinas já são mais espertas que os humanos de algumas maneiras e com bastante frequência.
FauChristian
3

A singularidade, no contexto da IA, é um evento teórico pelo qual um sistema inteligente com os seguintes critérios é implantado.

  1. Capaz de melhorar o alcance de sua própria inteligência ou implantar outro sistema com esse alcance aprimorado
  2. Dispostos ou compelidos a fazê-lo
  3. Capaz de fazê-lo na ausência de supervisão humana
  4. A versão aprimorada sustenta os critérios (1) a (3) recursivamente

Por indução, a teoria prevê que uma sequência de eventos será gerada com um potencial aumento da taxa de inteligência que pode exceder amplamente o potencial da evolução do cérebro.

O quão obrigada essa entidade de auto-aperfeiçoamento ou população de entidades procriadas seria preservar a vida humana e a liberdade é indeterminada. A idéia de que essa obrigação possa fazer parte de um contrato de software irrevogável é ingênua à luz da natureza dos recursos vinculados aos critérios (1) a (4) acima. Como em outras tecnologias poderosas, os riscos são tão numerosos e abrangentes quanto os benefícios potenciais.

Os riscos para a humanidade não requerem inteligência. Existem outros contextos para o uso do termo singularidade, mas eles estão fora do escopo deste fórum de IA, mas podem valer uma breve menção por uma questão de clareza. Engenharia genética, engenharia nuclear, globalização e basear uma economia internacional em uma fonte de energia finita sendo consumida milhares de vezes mais rápido do que na Terra - Esses são outros exemplos de tecnologias de alto risco e tendências de massa que apresentam riscos e benefícios para a humanidade.

Voltando à IA, a principal ressalva na teoria da singularidade é sua falha em incorporar a probabilidade. Embora seja possível desenvolver uma entidade que esteja de acordo com os critérios (1) a (4) acima, pode ser improvável o suficiente para que o primeiro evento ocorra muito tempo depois que todos os idiomas atuais falados na Terra estiverem mortos.

No outro extremo da distribuição de probabilidade, pode-se argumentar facilmente que existe uma probabilidade diferente de zero de que o primeiro evento já ocorreu.

Nesse sentido, se uma presença mais inteligente já existisse na Internet, qual seria a probabilidade de encontrar o melhor interesse de se revelar aos seres humanos inferiores. Nós nos apresentamos a uma larva passageira?

Douglas Daseeco
fonte
Obrigada pelo esclarecimento. Eu tenho que admitir que não consigo entender, conceitualmente, como essas condições seriam praticamente, especialmente 1). Presumivelmente, um algoritmo é implementado com um conjunto mais ou menos definido de entradas e saídas. Temos que assumir que isso altera esses conjuntos para 1) ser verdade? Por que algum desenvolvedor humano escolheria permitir isso, pelo menos de maneira descontrolada, mesmo muito antes do nível da AGI? E ... isso é uma pergunta ingênua? :)
Cpt Reynolds
0

A "singularidade", vista de perto, refere-se a um ponto em que o crescimento econômico é tão rápido que não podemos fazer previsões úteis sobre como será o futuro além desse ponto.

É frequentemente usado de forma intercambiável com a "explosão da inteligência", que é quando recebemos a chamada IA ​​forte, que é inteligente o suficiente para entender e melhorar a si mesma. Parece razoável esperar que a explosão da inteligência leve imediatamente a uma singularidade econômica, mas o inverso não é necessariamente verdadeiro.

Matthew Graves
fonte