A singularidade tecnológica é um ponto teórico no tempo em que uma inteligência geral artificial auto-aperfeiçoada se torna capaz de entender e manipular conceitos fora do alcance do cérebro humano, ou seja, o momento em que ele pode entender as coisas que os seres humanos, por design biológico, podem ' t.
A imprecisão sobre a singularidade vem do fato de que, a partir dessa singularidade, a história é efetivamente imprevisível. A humanidade seria incapaz de prever quaisquer eventos futuros ou explicar quaisquer eventos presentes, pois a própria ciência se torna incapaz de descrever eventos acionados por máquinas. Essencialmente, as máquinas pensariam em nós da mesma maneira que pensamos nas formigas. Assim, não podemos fazer previsões além da singularidade. Além disso, como conseqüência lógica, seríamos incapazes de definir o ponto em que a singularidade pode ocorrer, ou mesmo reconhecê-la quando isso acontecer.
No entanto, para que a singularidade ocorra, é necessário desenvolver a AGI, e se isso é possível é um debate bastante quenteagora mesmo. Além disso, um algoritmo que cria inteligência sobre-humana a partir de bits e bytes teria que ser projetado. Por definição, um programador humano não seria capaz de fazer isso, pois seu cérebro precisaria compreender conceitos além de seu alcance. Há também o argumento de que uma explosão de inteligência (o mecanismo pelo qual uma singularidade tecnológica seria teoricamente formada) seria impossível devido à dificuldade do desafio do projeto de tornar-se mais inteligente, aumentando proporcionalmente à sua inteligência, e que a dificuldade do próprio design pode ultrapassar a inteligência necessária para solucionar o desafio (crédito de último ponto a deus dos lhamas nos comentários).
Além disso, existem teorias relacionadas envolvendo máquinas que dominam a humanidade e toda essa narrativa de ficção científica. No entanto, é improvável que isso aconteça, se as leis de Asimov forem seguidas adequadamente. Mesmo que as leis de Asimov não fossem suficientes, ainda seria necessário uma série de restrições para evitar o uso indevido de AGI por indivíduos mal intencionados, e as leis de Asimov são as mais próximas que temos disso.
O conceito de "singularidade" é quando as máquinas são mais espertas que os humanos. Embora a opinião de Stephen Hawking seja de que essa situação é inevitável, mas acho que será muito difícil chegar a esse ponto, porque todo algoritmo de IA precisa ser programado por seres humanos, portanto, seria sempre mais limitado que seu criador.
Provavelmente saberíamos quando é que a humanidade perderá o controle sobre a Inteligência Artificial, onde a IA super-inteligente estaria em concorrência com os seres humanos e talvez a criação de seres inteligentes mais sofisticados ocorra, mas atualmente é mais como ficção científica (também conhecida como Terminator's Skynet ).
O risco pode envolver a morte de pessoas (como drones de guerra que tomam suas próprias decisões), a destruição de países ou até de todo o planeta (como a IA conectada às armas nucleares (também conhecido como filme WarGames ), mas isso não prova o ponto de partida. as máquinas seriam mais inteligentes que os humanos.
fonte
A singularidade, no contexto da IA, é um evento teórico pelo qual um sistema inteligente com os seguintes critérios é implantado.
Por indução, a teoria prevê que uma sequência de eventos será gerada com um potencial aumento da taxa de inteligência que pode exceder amplamente o potencial da evolução do cérebro.
O quão obrigada essa entidade de auto-aperfeiçoamento ou população de entidades procriadas seria preservar a vida humana e a liberdade é indeterminada. A idéia de que essa obrigação possa fazer parte de um contrato de software irrevogável é ingênua à luz da natureza dos recursos vinculados aos critérios (1) a (4) acima. Como em outras tecnologias poderosas, os riscos são tão numerosos e abrangentes quanto os benefícios potenciais.
Os riscos para a humanidade não requerem inteligência. Existem outros contextos para o uso do termo singularidade, mas eles estão fora do escopo deste fórum de IA, mas podem valer uma breve menção por uma questão de clareza. Engenharia genética, engenharia nuclear, globalização e basear uma economia internacional em uma fonte de energia finita sendo consumida milhares de vezes mais rápido do que na Terra - Esses são outros exemplos de tecnologias de alto risco e tendências de massa que apresentam riscos e benefícios para a humanidade.
Voltando à IA, a principal ressalva na teoria da singularidade é sua falha em incorporar a probabilidade. Embora seja possível desenvolver uma entidade que esteja de acordo com os critérios (1) a (4) acima, pode ser improvável o suficiente para que o primeiro evento ocorra muito tempo depois que todos os idiomas atuais falados na Terra estiverem mortos.
No outro extremo da distribuição de probabilidade, pode-se argumentar facilmente que existe uma probabilidade diferente de zero de que o primeiro evento já ocorreu.
Nesse sentido, se uma presença mais inteligente já existisse na Internet, qual seria a probabilidade de encontrar o melhor interesse de se revelar aos seres humanos inferiores. Nós nos apresentamos a uma larva passageira?
fonte
A "singularidade", vista de perto, refere-se a um ponto em que o crescimento econômico é tão rápido que não podemos fazer previsões úteis sobre como será o futuro além desse ponto.
É frequentemente usado de forma intercambiável com a "explosão da inteligência", que é quando recebemos a chamada IA forte, que é inteligente o suficiente para entender e melhorar a si mesma. Parece razoável esperar que a explosão da inteligência leve imediatamente a uma singularidade econômica, mas o inverso não é necessariamente verdadeiro.
fonte