Eu sou um estudante de doutorado em ciência da computação e atualmente estou criando uma visão geral do estado da arte em aplicativos feitos em Machine Ethics (um campo multidisciplinar que combina filosofia e IA, que procura criar programas ou agentes éticos explícitos). Parece que o campo contém principalmente argumentos teóricos e há relativamente poucas implementações, embora existam muitas pessoas com formação técnica no campo.
Entendo que, como a ética está envolvida, não existe uma verdade fundamentada e, como faz parte da filosofia, pode-se perder discutindo sobre qual tipo de ética deve ser implementado e como isso pode ser feito melhor. No entanto, na ciência da computação, é comum até tentar uma implementação simples para mostrar as possibilidades ou limitações de sua abordagem.
Quais são as possíveis razões pelas quais tão pouco é feito na implementação explícita da ética na IA e na experimentação?
fonte
Respostas:
Esta é necessariamente uma resposta de alto nível e altamente especulativa, mas estive pensando nessa questão e aqui estão os meus pensamentos:
Após o famoso fracasso de Russell & Whitehead e o teorema da incompletude de Gödel, isso parece ser problemático.
Assim, você vê isso em carros autônomos, porque os engenheiros não têm escolha a não ser lidar com o problema. Por outro lado, não acho que você verá muitas empresas algorítmicas de negociação de ações, onde o negócio é a eficiência de Pareto , preocupada com a ética ou os impactos sociais da especulação financeira. (A solução para "falhas instantâneas" parece ter sido regras para a suspensão temporária da negociação, em vez de abordar o valor social da negociação algorítmica de alta frequência.) Um exemplo mais óbvio são as empresas de mídia social que ignoram as quantidades extremas de abuso de informações (desinformação). e desinformação) postadas em seus sites, alegando ignorância, o que é altamente suspeito, pois a atividade gerada pelo abuso de informações afeta positivamente seus resultados.
A principal diretiva das empresas é devolver um lucro aos investidores. Não é incomum que as empresas violem a lei quando se espera que multas e multas sejam inferiores ao lucro obtido por atividades ilegais. (Existe o conceito de ética nos negócios, mas a cultura em geral parece julgar pessoas e empresas com base em quanto dinheiro elas ganham, independentemente dos meios.)
Se as superinteligências evoluem e acabam com a humanidade (como algumas pessoas muito inteligentes com habilidades matemáticas superiores estão nos alertando), meu sentimento é de que isso será uma função da natureza, onde a evolução irrestrita desses algoritmos se deve a fatores econômicos que se concentram na hiperatividade. autômatos partidários em setores como especulação financeira e guerra autônoma. Essencialmente, perseguir lucros a todo custo, independentemente dos impactos.
fonte
Sinto-me parte do problema de por que há muito pouco no caminho das implementações éticas das tecnologias de IA / ML, é simplesmente porque não há necessidade ou aplicação adequada dos marcos teóricos.
Com isso, quero dizer, não há maneiras substanciais de aplicar esse entendimento a algoritmos e modelos que não podem interagir de maneira significativa. Temos uma estrutura teórica tão grande sobre segurança / ética em IA porque é extremamente importante. Precisamos criar diretrizes seguras para implementar IA forte antes que ela seja criada.
Alguns trabalhos muito focados começaram a restringir os problemas na criação de sistemas de IA éticos / seguros. Veja problemas concretos na segurança da IA
fonte
Com o método de imitação, o comportamento mais apropriado pode ser integrado à inteligência artificial. A inteligência artificial pode ser remodelada quando a posição ética muda. É usado para fins ideológicos ou para coletar informações. Não está claro o que é o robô.
fonte
Podemos levar o modelo de erro ao contador. Reconhecer o viés e a variação entre o desempenho em redes neurais pode ser o primeiro passo. E então podemos discutir se esse desempenho é permitido. Tanto quanto sabemos, a prática da etnicidade requer estudo empírico e de campo. não podemos simplesmente usar argumentos e ensaios em papel para determinar se as ações das máquinas aprendidas estão erradas ou não. Pode ser dividido em acidentes, erros ou até bugs criados pelos desenvolvedores.
fonte
Intuitivamente, parece haver poucas pesquisas sobre a implementação da ética da IA porque:
A sociedade como um todo parece concordar confortavelmente que o estado atual da inteligência da máquina não é forte o suficiente para ser considerado consciente ou senciente. Portanto, ainda não precisamos conceder direitos éticos.
A implementação do comportamento ético em um programa requer um método para os computadores serem capazes de interpretar o "significado", que ainda não sabemos como fazer.
fonte