No contexto da inteligência artificial, a singularidade refere-se ao advento de uma inteligência geral artificial capaz de auto-aperfeiçoamento recursivo, levando ao rápido surgimento de superinteligência artificial (ASI), cujos limites são desconhecidos, logo após a singularidade tecnológica ser alcançada. . Portanto, essas superinteligências seriam capazes de resolver problemas que possivelmente não somos capazes de resolver.
De acordo com uma pesquisa relatada em Progressos futuros em inteligência artificial: uma pesquisa de opinião de especialistas (2014)
A estimativa mediana dos entrevistados teve uma chance em duas de que a inteligência artificial de alto nível será desenvolvida por volta de 2040-2050
o que não é muito longe.
O que há de errado com a ideia de que a IA será capaz de onisciência, uma vez que poderia nos beneficiar ao resolver muitos problemas?
A pergunta é boa e está na cabeça de muitas pessoas. Existem alguns conceitos errados na linha de pensamento a considerar.
Se você quer um mundo melhor do que aquele controlado pela inteligência humana, uma direção a seguir é buscar o desenvolvimento de uma nova espécie com uma concepção mais avançada de civilização pacífica que possa nos domesticar e domesticar como fizemos com cães e gatos. gatos.
O caminho mais fácil é apenas para todos nós morrermos. A biosfera pode ter sido mais civilizada antes de chegarmos e começarmos a matar tudo e um ao outro. Mas essa não é minha esperança.
Minha recomendação é que estudemos a NI (não-inteligência) e descubramos como livrar o que é estúpido do comportamento humano e da interação geopolítica. Isso melhoraria o mundo muito mais do que dispositivos e aplicativos de aprendizado de máquina que são perturbadores e substancialmente irrelevantes.
fonte
Aqui estão alguns problemas que minha mente de macaco surgiu.
1.Smart! = Tudo sabendo
A explosão de auto-aperfeiçoamento da IA a torna cada vez mais inteligente. Ser mais inteligente não significa conhecer mais fatos. Suponho que esse seja um argumento bastante exigente, mas acho que vale a pena pensar nisso.
Um médico muito inteligente que não conhece seu histórico ainda pode fazer uma escolha pior do que um menos inteligente com melhores dados.
2. É tudo para humanos? É para todos os seres humanos?
O ASI que atinge um nível mais alto não poderia estar interessado em nosso bem-estar.
Um ASI controlado ainda poderia funcionar para o benefício de poucos, se esses poucos decidirem objetivos errados, poderíamos retroceder.
3 Harsh ASI
Uma mente científica não necessariamente cheia de simpatia ou empatia.
4. Ser inteligente e não ser inteligente
Grandes mentes ainda cometem erros: * ao estabelecer seus objetivos e * na execução do plano para alcançá-lo.
O intelecto inteligente não garante a falta de visão ou a falta de pontos cegos.
5. Limites
Se houver limites de existência (limites do tipo velocidade da luz), a IA também será vinculada por eles. Isso pode significar que existem coisas que nem a ASI conseguirá. Além disso, como nossa mente pode ter limites com base em sua estrutura, a próxima IA também pode ter limites - e mesmo se melhorar a uppn pode atingir limites aos quais não consegue encontrar soluções, porque é "muito estúpido".
6. Nós não vamos entender
A compreensão da ASI de certos aspectos do mundo pode não ser comunicativa para a maioria dos seres humanos. Nós simplesmente não entendemos (mesmo se somos capazes de entender tudo, isso não significa que vamos entender).
7. Como usá-lo?
Podemos nos destruir, e a IA com a tecnologia que ela nos ajuda a construir. Não precisa ser bombas. Pode ser geoengenharia ou drogas maravilhosas.
Isso é especialmente intenso quando o ASI já é poderoso, mas não é forte o suficiente para prever consequências negativas (ou simplesmente a ignoraremos).
fonte