O que há de errado com a ideia de que a IA será capaz de onisciência?

10

No contexto da inteligência artificial, a singularidade refere-se ao advento de uma inteligência geral artificial capaz de auto-aperfeiçoamento recursivo, levando ao rápido surgimento de superinteligência artificial (ASI), cujos limites são desconhecidos, logo após a singularidade tecnológica ser alcançada. . Portanto, essas superinteligências seriam capazes de resolver problemas que possivelmente não somos capazes de resolver.

De acordo com uma pesquisa relatada em Progressos futuros em inteligência artificial: uma pesquisa de opinião de especialistas (2014)

A estimativa mediana dos entrevistados teve uma chance em duas de que a inteligência artificial de alto nível será desenvolvida por volta de 2040-2050

o que não é muito longe.

O que há de errado com a ideia de que a IA será capaz de onisciência, uma vez que poderia nos beneficiar ao resolver muitos problemas?

Aaron
fonte

Respostas:

8

Gosto muito da sua perspectiva e, sem entrar em detalhes de como uma "singularidade" pode ser afetada, coberta por inúmeras outras questões, ou como a consciência e a "onisciência" entram em jogo porque a consciência e a onisciência não são requisitos , eu preferiria direcioná-lo para dois principais filósofos:

Então, quando as pessoas enlouquecem, concentrando-se no mito da " Skynet " sob o qual as máquinas surgem para nos destruir, tenho que me perguntar se elas simplesmente não são tão inteligentes quanto Nash ou tão profundas quanto Dick, o que pode explicar sua falta de ênfase em o que pode ser chamado de paradigma " Electric Sheep ".

DukeZhou
fonte
1
Eu concordo totalmente com você. Às vezes pergunto o que nos leva a criar novas tecnologias. Queremos poderes absolutos ou realmente resolvemos nossos problemas reais? É por isso que prefiro ver através do prisma do amor. Alguns podem considerá-lo clichê, mas é assim que acredito.
Karl Zillner
@KarlZillner Continuando na frente mitológica, em Streller ' Accellerando , ele introduz um conceito de "Economia 2.0 *", definido como um sistema em que mesmo humanos aumentados não podem mais competir com algoritmos puros, e que parece ser completamente inútil. propor duas vias principais - IA semi-partidária e cooperativa versus IA hiperpartidária (que se apresentam como primos menos inteligentes, embora com funções de aquisição de baixo nível altamente otimizadas que lhes permitam sobrecarregar e cooptar a infraestrutura do criador. )
DukeZhou
0

A pergunta é boa e está na cabeça de muitas pessoas. Existem alguns conceitos errados na linha de pensamento a considerar.

  • A supremacia de seres inteligentes que não sejam humanos ameaçam a civilização - a imaginação dessa ameaça é lógica? Essa é uma conclusão racional quando a inteligência humana é o fenômeno biológico mais ameaçador da biosfera atualmente? A inteligência dos insetos pode ser mais sustentável. As civilizações de formigas e cupins são certamente mais colaborativas. As guerras mundiais e o genocídio são uma das principais características da história humana.
  • A inteligência artificial se torna mais inteligente que os seres humanos - A inteligência artificial já é mais inteligente que os seres humanos em alguns aspectos, e é por isso que usamos calculadoras, comutação automática de sinais de comunicação em vez de operadores e classificadores automáticos de correio. De outras formas, a IA precisa atravessar distâncias astronômicas para começar a aproximar a inteligência humana. Não temos nada que até mostre um indício de ser capaz de simular ou duplicar no futuro as capacidades humanas de raciocínio, inventividade ou compaixão.
  • A singularidade é prevista para a década de 2040 - Há mais de uma dúzia de suposições irrealistas nessas previsões. Olhe com um olhar crítico para qualquer um dos argumentos por trás deles e você fará pequenos furos que poderiam fazer um 757 atravessar os olhos vendados.
  • Crescimento exponencial do conhecimento - Há um crescimento exponencial da informação, mas a proporção dessas informações que são legitimamente revisadas por pares diminui à medida que a desinformação, as conjecturas selvagens e as notícias falsas aumentam. Minha crença é que a quantidade de informações no mundo pode ser aproximada por log (n), onde n é a população. Se estou no caminho certo com essa relação, o valor informacional do indivíduo médio é log (n) / n, que diminui à medida que a população cresce.
  • A IA será capaz de onisciência - a onisciência é mais do que responder a qualquer pergunta. A onisciência exigiria que a resposta fosse 100% confiável e 100% precisa, o que pode exigir mais silício do que existe no universo. Leia Caos de Gleick se você deseja entender o porquê. Pode-se argumentar também que um ser onisciente não responderia a perguntas sob comando.

Se você quer um mundo melhor do que aquele controlado pela inteligência humana, uma direção a seguir é buscar o desenvolvimento de uma nova espécie com uma concepção mais avançada de civilização pacífica que possa nos domesticar e domesticar como fizemos com cães e gatos. gatos.

O caminho mais fácil é apenas para todos nós morrermos. A biosfera pode ter sido mais civilizada antes de chegarmos e começarmos a matar tudo e um ao outro. Mas essa não é minha esperança.

Minha recomendação é que estudemos a NI (não-inteligência) e descubramos como livrar o que é estúpido do comportamento humano e da interação geopolítica. Isso melhoraria o mundo muito mais do que dispositivos e aplicativos de aprendizado de máquina que são perturbadores e substancialmente irrelevantes.

FauChristian
fonte
0

Aqui estão alguns problemas que minha mente de macaco surgiu.

1.Smart! = Tudo sabendo

A explosão de auto-aperfeiçoamento da IA ​​a torna cada vez mais inteligente. Ser mais inteligente não significa conhecer mais fatos. Suponho que esse seja um argumento bastante exigente, mas acho que vale a pena pensar nisso.

Um médico muito inteligente que não conhece seu histórico ainda pode fazer uma escolha pior do que um menos inteligente com melhores dados.

2. É tudo para humanos? É para todos os seres humanos?

O ASI que atinge um nível mais alto não poderia estar interessado em nosso bem-estar.

Um ASI controlado ainda poderia funcionar para o benefício de poucos, se esses poucos decidirem objetivos errados, poderíamos retroceder.

3 Harsh ASI

Uma mente científica não necessariamente cheia de simpatia ou empatia.

4. Ser inteligente e não ser inteligente

Grandes mentes ainda cometem erros: * ao estabelecer seus objetivos e * na execução do plano para alcançá-lo.

O intelecto inteligente não garante a falta de visão ou a falta de pontos cegos.

5. Limites

Se houver limites de existência (limites do tipo velocidade da luz), a IA também será vinculada por eles. Isso pode significar que existem coisas que nem a ASI conseguirá. Além disso, como nossa mente pode ter limites com base em sua estrutura, a próxima IA também pode ter limites - e mesmo se melhorar a uppn pode atingir limites aos quais não consegue encontrar soluções, porque é "muito estúpido".

6. Nós não vamos entender

A compreensão da ASI de certos aspectos do mundo pode não ser comunicativa para a maioria dos seres humanos. Nós simplesmente não entendemos (mesmo se somos capazes de entender tudo, isso não significa que vamos entender).

7. Como usá-lo?

Podemos nos destruir, e a IA com a tecnologia que ela nos ajuda a construir. Não precisa ser bombas. Pode ser geoengenharia ou drogas maravilhosas.

Isso é especialmente intenso quando o ASI já é poderoso, mas não é forte o suficiente para prever consequências negativas (ou simplesmente a ignoraremos).

timtim
fonte