Estamos fazendo pesquisas, gastando horas descobrindo como podemos fazer com que o software de IA (agentes inteligentes) real funcione melhor. Também estamos tentando implementar algumas aplicações, por exemplo, em negócios, saúde e educação, usando a tecnologia de IA.
No entanto, até agora, a maioria de nós ignorou o lado "sombrio" da inteligência artificial. Por exemplo, uma pessoa "antiética" poderia comprar milhares de drones baratos, armá-los com armas e dispará-los contra o público. Essa seria uma aplicação "antiética" da IA.
Poderia haver (no futuro) ameaças existenciais à humanidade devido à IA?
human-like
applications
cyberterrorism
quintumnia
fonte
fonte
Respostas:
Eu definiria inteligência como uma capacidade de prever o futuro. Portanto, se alguém é inteligente, ele pode prever alguns aspectos do futuro e decidir o que fazer com base em suas previsões. Portanto, se uma pessoa "inteligente" decide ferir outras pessoas, pode ser muito eficaz nisso (por exemplo, Hitler e sua equipe).
A inteligência artificial pode ser extremamente eficaz na previsão de alguns aspectos de futuro incerto. E este IMHO leva a dois cenários negativos:
Claro, também existem cenários positivos, mas você não está perguntando sobre eles.
Eu recomendo a leitura deste post interessante sobre superinteligência artificial e possíveis resultados de sua criação: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
fonte
Não há dúvida de que a IA tem o potencial de representar uma ameaça existencial para a humanidade.
Uma inteligência artificial que supera a inteligência humana será capaz de aumentar exponencialmente sua própria inteligência, resultando em um sistema de IA que, para os seres humanos, será completamente imparável.
Nesse estágio, se o sistema de inteligência artificial decidir que a humanidade não é mais útil, poderá nos tirar da face da terra.
Como Eliezer Yudkowsky coloca na Inteligência Artificial como fator positivo e negativo no risco global ,
"A IA não te odeia, nem te ama, mas você é feito de átomos que podem ser usados para outra coisa."
Aqui é útil considerar o experimento de pensamento do maximizador de clipe de papel.
Uma IA altamente inteligente, instruída para maximizar a produção de clipes de papel, pode executar as seguintes etapas para atingir seu objetivo.
1) Consiga uma explosão de inteligência para se tornar superinteligente (isso aumentará a eficiência da otimização de clipes de papel)
2) Acabar com a humanidade para que não possa ser desativada (isso minimizaria a produção e seria ineficiente)
3) Use os recursos da Terra (incluindo o próprio planeta) para construir robôs auto-replicantes que hospedam a IA
4) Espalhado exponencialmente pelo universo, colhendo planetas e estrelas, transformando-os em materiais para construir fábricas de clipes de papel
Isso ilustra como os sistemas de inteligência artificial superinteligentes e altamente inteligentes podem ser o maior risco existencial que a humanidade já enfrentou.
Murray Shanahan, em The Technological Singularity , chegou a propor que a IA pudesse ser a solução para o paradoxo de Fermi: a razão pela qual não vemos uma vida inteligente no universo pode ser que, uma vez que uma civilização se torne suficientemente avançada, ela desenvolverá uma AI que acabará destruindo isto. Isso é conhecido como a idéia de um filtro cósmico .
Em conclusão, a própria inteligência que torna a IA tão útil também a torna extremamente perigosa.
Figuras influentes como Elon Musk e Stephen Hawking expressaram preocupações de que a IA superinteligente seja a maior ameaça que já teremos que enfrentar.
Espero que responda sua pergunta :)
fonte