As famosas Três Leis da Robótica de Isaac Asimov se originaram no contexto das histórias de ficção científica de Asimov. Nessas histórias, as três leis servem como uma medida de segurança, a fim de evitar situações prematuras ou manipuladas de explodir em caos.
Mais frequentemente, as narrativas de Asimov encontrariam uma maneira de quebrá-las, levando o escritor a fazer várias modificações nas próprias leis. Por exemplo, em algumas de suas histórias, ele modificou a Primeira Lei , adicionou uma Quarta Lei (ou Zeroth) , ou até mesmo removeu todas as Leis .
No entanto, é fácil argumentar que, na cultura popular, e mesmo no campo da pesquisa em IA, as Leis da Robótica são levadas muito a sério. Ignorando o problema secundário das interpretações diferentes, subjetivas e mutuamente exclusivas das leis, existem argumentos que provam que as próprias leis são intrinsecamente imperfeitas por seu design, ou, alternativamente, fortes o suficiente para serem usadas na realidade? Da mesma forma, um conjunto de heurísticas de segurança melhores e mais rigorosas está sendo projetado para essa finalidade?
fonte
Respostas:
As leis de Asimov não são fortes o suficiente para serem usadas na prática. A força não é sequer uma consideração, ao considerar que, uma vez que foram escritas em inglês, as palavras primeiro teriam que ser interpretadas subjetivamente para ter algum significado. Você pode encontrar uma boa discussão sobre isso aqui .
Para transcrever um trecho:
Pode-se facilmente imaginar que Asimov era inteligente o suficiente para saber disso e estava mais interessado em escrever histórias do que em criar protocolos de controle de IA no mundo real.
No romance Neuromancer , foi sugerido que as IAs poderiam servir como controle entre si. A singularidade iminente de Ray Kurzweil , ou a possibilidade de AGIs hiperinteligentes de outra forma, pode não deixar muita possibilidade para os humanos controlarem as IAs, deixando a regulamentação por pares como a única possibilidade possível.
Vale ressaltar que Eliezer Yudkowsky e outros realizaram um experimento em que Yudkowsky desempenhou o papel de uma IA superinteligente com capacidade de falar, mas nenhuma outra conexão fora de uma caixa trancada. Os desafiantes foram encarregados simplesmente de manter a IA na caixa a todo custo. Yudkowsky escapou das duas vezes.
fonte
Asimov fez as três leis especificamente para provar que não há três leis suficientes, por mais razoáveis que pareçam a princípio. Eu conheço um cara que conhecia o cara e ele confirmou isso.
fonte
Considere a primeira lei da robótica de Asimov:
Essa lei já é problemática quando se considera carros autônomos.
Qual é o problema aqui, você pergunta? Bem, você provavelmente estará familiarizado com o experimento clássico em ética conhecido como problema do carrinho . A forma geral do problema é esta:
Os carros autônomos precisarão realmente implementar variações da vida real no problema do carrinho, o que basicamente significa que os carros autônomos precisam ser programados para matar seres humanos .
É claro que isso não significa que TODOS os robôs precisarão ser programados para matar, mas os carros autônomos são um bom exemplo de um tipo de robô que precisará.
fonte