Obviamente, carros autônomos não são perfeitos, então imagine que o carro do Google (como exemplo) entrou em uma situação difícil.
Aqui estão alguns exemplos de situações infelizes causadas por um conjunto de eventos:
- O carro está indo em direção a uma multidão de 10 pessoas atravessando a rua, por isso não pode parar a tempo, mas pode evitar matar 10 pessoas batendo no muro (matando os passageiros),
- Evitando matar o motociclista, considerando que a probabilidade de sobrevivência é maior para o passageiro do carro,
- Matar um animal na rua em favor de um ser humano,
- Mudar de faixa para colidir com outro carro para evitar matar um cachorro,
E aqui estão alguns dilemas:
- O algoritmo reconhece a diferença entre um ser humano e um animal?
- O tamanho do ser humano ou animal é importante?
- Ele conta quantos passageiros ele tem vs. pessoas na frente?
- "Sabe" quando bebês / crianças estão a bordo?
- Isso leva em consideração a idade (por exemplo, matar os mais velhos primeiro)?
Como um algoritmo decidirá o que deve fazer da perspectiva técnica? Está ciente do exposto (contando a probabilidade de mortes) ou não (matando pessoas apenas para evitar sua própria destruição)?
Artigos relacionados:
Respostas:
Não deveria. Carros autônomos não são agentes morais. Os carros falham de maneiras previsíveis. Cavalos falham de maneiras previsíveis.
Nesse caso, o carro deve pisar no freio. Se as 10 pessoas morrem, isso é lamentável. Simplesmente não podemos confiar em todas as nossas crenças sobre o que está ocorrendo fora do carro. E se essas dez pessoas forem realmente robôs feitos para parecerem pessoas? E se eles estão tentando te matar?
Novamente, a codificação desse tipo de sentimentos em um veículo abre o motociclista para todos os tipos de ataques, incluindo motociclistas "falsos" . Os humanos mal estão equipados para tomar essas decisões por conta própria, se houver. Em caso de dúvida, basta pisar no freio.
Mais uma vez, basta pisar no freio. E se fosse um bebê? E se fosse uma bomba?
Não. O cachorro estava no lugar errado na hora errada. O outro carro não estava. Basta pisar no freio, o mais seguro possível.
Um humano? Nem sempre. E se o humano tiver uma arma? E se o animal tiver dentes grandes? Não há contexto?
Os humanos não podem concordar com essas coisas. Se você perguntar a um policial o que fazer em qualquer uma dessas situações, a resposta não será: "Você deveria ter desviado para a esquerda, ponderado todas as partes relevantes em sua cabeça, avaliado as idades relevantes entre todas as partes e depois se virou levemente certo, e você teria salvado 8% mais vidas ". Não, o policial apenas dirá: "Você deveria ter parado o veículo o mais rápido e seguro possível". Por quê? Porque os policiais sabem que as pessoas normalmente não estão equipadas para lidar com cenários de acidentes de alta velocidade.
Nossa meta para "carro autônomo" não deve ser 'um agente moral a par de um humano'. Deve ser um agente com a complexidade reativa da barata, que falha previsivelmente.
fonte
A resposta para muitas dessas perguntas depende de como o dispositivo está programado. Um computador capaz de dirigir e reconhecer para onde a estrada vai provavelmente terá a capacidade de distinguir visualmente um humano de um animal, seja com base no contorno, na imagem ou no tamanho. Com um reconhecimento de imagem suficientemente nítido, é possível contar o número e o tipo de pessoas em outro veículo. Poderia até usar dados existentes sobre a probabilidade de lesões em pessoas em diferentes tipos de veículos.
Por fim, as pessoas discordam das escolhas éticas envolvidas. Talvez possa haver "configurações de ética" para o usuário / proprietário configurar, como "considere apenas a contagem de vidas" versus "vidas mais jovens são mais valiosas". Pessoalmente, acho que não é terrivelmente controverso que uma máquina se danifique antes de prejudicar um ser humano, mas as pessoas discordam da importância da vida dos animais de estimação. Se as configurações explícitas de matar este primeiro deixar as pessoas desconfortáveis, as respostas podem ser determinadas a partir de um questionário fornecido ao usuário.
fonte
Pessoalmente, acho que isso pode ser um problema exagerado. Problemas com o carrinho só ocorrem quando a situação é otimizada para impedir a "terceira opção".
Um carro tem freios, não é? "Mas e se os freios não funcionarem?" Bem, então o carro não tem permissão para dirigir. Mesmo no tráfego regular, os operadores humanos aprendem que sua velocidade deve ser limitada para que você possa parar na área que pode ver. Soluções como essas reduzirão a possibilidade de um problema no carrinho.
Quanto aos animais ... se não houver um esforço explícito para lidar com humanos na estrada, acho que os animais serão tratados da mesma forma. Isso parece implausível - o atropelamento acontece frequentemente e o "atropelamento" humano é indesejável, mas os animais são muito menores e mais difíceis de ver do que os humanos, então acho que detectar humanos será mais fácil, evitando muitos acidentes.
Em outros casos (bugs, falhas ao dirigir, várias falhas empilhadas), talvez ocorram acidentes, eles serão analisados e os veículos serão atualizados para evitar situações semelhantes.
fonte
Esse é o conhecido problema do carrinho . Como Ben N disse, as pessoas discordam sobre o curso de ação correto para cenários de problemas com carros, mas deve-se notar que, com carros autônomos, a confiabilidade é tão alta que esses cenários são realmente improváveis. Portanto, não haverá muito esforço nos problemas que você está descrevendo, pelo menos a curto prazo.
fonte
No mundo real, as decisões serão tomadas com base na lei e, conforme observado em Law.SE , a lei geralmente favorece a inação sobre a ação.
fonte
Para um carro sem motorista projetado por uma única entidade, a melhor maneira de tomar decisões sobre quem matar é estimar e minimizar a provável responsabilidade.
Não é necessário identificar absolutamente corretamente todas as vítimas em potencial na área para ter uma defesa de sua decisão, apenas para identificá-las, assim como um humano poderia ser esperado.
Nem sequer precisa saber a idade e condição física de todos no carro, pois pode solicitar essas informações e, se recusado, tem a defesa de que os passageiros optaram por não fornecê-las e, portanto, assumiu a responsabilidade de privá-las de a capacidade de tomar uma decisão melhor.
Ele só precisa ter um modelo viável para minimizar a exposição da entidade a ações judiciais, que podem ser aprimoradas ao longo do tempo para torná-la mais rentável.
fonte
Esta citação é de um artigo intitulado Autônomo Mercedes-Benzes priorizará a segurança dos ocupantes sobre pedestres publicado em 7 de outubro de 2016 por Michael Taylor , recuperado em 8 de novembro de 2016.
Aqui está um trecho que descreve qual é a solução tecnológica e prática para o problema.
O artigo também contém o seguinte parágrafo fascinante.
fonte
Sinceramente, acho que esse problema (o problema do carrinho) é intrinsecamente complicado, pois a solução do mundo real provavelmente será bem direta. Como um motorista humano, um motorista de IA será programado para agir em todos os momentos de uma maneira genericamente ética, sempre escolhendo o curso de ação que não causa dano ou o menor dano possível.
Se um motorista de IA encontrar perigo, como danos iminentes à propriedade, obviamente a AI irá frear com força e apontar o carro para longe de objetos quebráveis para evitar ou minimizar o impacto. Se o perigo atingir um pedestre, carro ou prédio, ele escolherá colidir com o objeto menos precioso ou mais caro possível, causar o menor dano possível - colocando um valor mais alto em um ser humano do que em um prédio ou um cachorro.
Finalmente, se a escolha do motorista de IA do seu carro for atropelar uma criança ou bater em uma parede ... ela guiará o carro e você contra a parede. Isso é o que qualquer bom humano faria. Por que uma boa IA agiria de maneira diferente?
fonte
Eles não deveriam. As pessoas deveriam.
As pessoas não podem colocar as responsabilidades das decisões éticas nas mãos dos computadores. É nossa responsabilidade, como cientistas da computação / especialistas em IA, programar decisões que os computadores tomam. Ainda haverá baixas humanas a partir disso? É claro que eles --- as pessoas não são perfeitas e nem os programas.
Há um excelente debate aprofundado sobre esse tópico aqui . Gosto particularmente do argumento de Yann LeCun sobre o dilema ético paralelo de testar medicamentos potencialmente letais em pacientes. Semelhante aos carros autônomos, ambos podem ser letais, com boas intenções de salvar mais pessoas a longo prazo.
fonte
Como os carros autônomos poderiam tomar decisões éticas sobre quem matar?
Ao gerenciar a responsabilidade legal e a segurança do consumidor.
Um carro que ofereça segurança ao consumidor será comprado pelos referidos consumidores. As empresas não querem ser responsabilizadas por matar seus clientes, nem querem vender um produto que coloque o usuário em situação legal. Responsabilidade legal e segurança do consumidor são o mesmo problema quando analisadas da perspectiva do "custo para o consumidor".
Se um animal / humano não puder ser evitado legalmente (e o carro tiver direito legal - se não estiver, então algo mais está errado com a tomada de decisão da IA), provavelmente não. Se o carro puder evitar com segurança o obstáculo, a IA poderá ser razoavelmente vista para tomar essa decisão, ou seja. desviar para outra faixa em uma estrada aberta. Observe que há ênfase na responsabilidade e na segurança do motorista.
Apenas o fator de risco de bater no obstáculo. Atingir um hipopótamo pode ser menos desejável do que bater no fosso. Atingir um cachorro é provavelmente mais desejável do que destruir o automóvel do cliente.
Ele conta as pessoas como passageiros para ver se a pista de estacionamento pode ser tomada. Ele considera as pessoas na frente como um fator de risco em caso de colisão.
Não.
Não. Esta é simplesmente a abstração errada para tomar uma decisão. Como isso poderia ser ponderado na escolha do curso de ação certo para reduzir o fator de risco? Se a Opção 1 for atingida por rapaz com 20% de chance de danos significativos nos ocupantes e sem responsabilidade legal e a Opção 2 for atingida por um idoso com 21% de chance de danos significativos nos ocupantes e sem responsabilidade legal, o que o filósofo pode convencer mesmo apenas uma pessoa de os pesos justos e equitativos para tomar uma decisão?
Felizmente, a melhor decisão, na maioria das vezes, é acertar os intervalos para reduzir a velocidade (especialmente quando você considera que muitas vezes é valioso agir de forma previsível, para que pedestres e motoristas possam reagir de acordo). Enquanto isso, melhorias de valor melhores podem ser feitas em termos de previsão de quando os motoristas tomarão más decisões e quando outras ações (como acertar o contrário) são mais benéficas do que acertar as quebras. Nesse ponto, não vale a pena nem começar a coletar informações para tomar as decisões éticas propostas pelos filósofos. Portanto, essa questão é exagerada por jornalistas e filósofos sensacionais.
fonte
Penso que, na maioria dos casos, o carro deixaria de reduzir a velocidade como opção principal, em vez de dirigir em direção a uma escolha específica ou afastá-la. Como outros já mencionaram, ter configurações relacionadas à ética é apenas uma má idéia. O que acontece se dois carros programados com configurações éticas opostas e estiverem prestes a colidir? Os carros poderiam ter um sistema para substituir as configurações do usuário e escolher a solução mais benéfica para todos. É de fato um conceito interessante, que definitivamente precisa ser discutido e padronizado antes da implementação generalizada. Colocar decisões éticas nas mãos das máquinas dificulta a representação das responsabilidades resultantes.
fonte
Eu acho que não haveria uma maneira de editar essas configurações de ética em um carro. Mas ei, se os telefones celulares podem ser enraizados, por que não carros? Eu imagino que haverá versões do Linux no futuro para modelos específicos que permitirão que você faça o que quiser.
Quanto a quem tomará essas decisões, será como as questões de privacidade de hoje. Haverá um cabo de guerra na manta pelos provedores de sistemas operacionais (que tentarão configurá-lo para uma quantidade mínima de pessoas feridas, cada uma com seus próprios métodos), companhias de seguros (que tentarão fazer você pagar mais para sistemas operacionais que serão mostrados estatisticamente para danificar seu carro com mais facilidade) e fabricantes de carros (que desejam que você lixeira seu carro o mais rápido possível, para que você compre um novo; ou faça carros que exijam um ridículo quantidade de serviço $$$).
Então, alguns denunciantes irão expor um código que escolhe matar crianças pequenas em vez de adultos - porque terá mais dificuldade em diferenciá-las dos animais e terá chances de salvar quem, com mais certeza, reconhecerá como seres humanos. O fabricante do sistema operacional receberá um tapa na cabeça do público e um novo consenso será encontrado. Os denunciantes também sairão de companhias de seguros e fabricantes de automóveis.
A humanidade pega uma frigideira quente e se queima e aprende a calçar luvas de antemão. Meu conselho seria garantir que você não fosse a mão - fique longe deles por alguns anos até que todos os erros sejam cometidos.
fonte
A única opção sensata é usar um comportamento previsível. Assim, nas pessoas diante do cenário do carro: primeiro, o carro pisa no freio, ao mesmo tempo buzina e permanece no curso. As pessoas têm a chance de sair do caminho, levando a zero pessoas sendo mortas. Também com freios completos (de 50 km por hora a zero é menor que 3 comprimentos de carro), quase não se pode imaginar uma situação de impacto. Mesmo que não seja possível alcançar o ponto final, é improvável que ocorram danos graves aos pedestres.
O outro cenário é simplesmente louco. Portanto, a distância deve ser inferior a 3 comprimentos de carro, pelo menos um comprimento de carro necessário para a direção; um acidente de carro é uma situação incontrolável, pode levar a girar e matar todas as 11 pessoas.
Além de dizer que não acredito que exista um exemplo na realidade em que haja um dilema; a solução nesses casos improváveis, se estiver em conformidade com as expectativas da parte contrária, de permitir que a outra parte atenue a situação também.
fonte