Você compraria um carro que optasse por te matar para salvar outras vidas?

Um estudo descobre grandes contradições morais que podem retardar o uso dos carros autônomos

Imagine que um carro se mova a 80 quilômetros por hora por uma estrada. Em seu interior viaja uma menina sozinha, porque se trata de um veículo inteligente, 100% autônomo. De repente, três meninos irrompem por engano na estrada e o carro tem de escolher em milésimos de segundo: seguir em frente e atropelar os três meninos ou dar um giro brusco e espatifar-se contra um muro, com sua pequena passageira dentro. O que o carro deveria fazer? É provável que você tenha optado por salvar os três meninos. Agora, imagine que o carro é seu e a menina, sua filha. Compraria para sua família um carro que vá matar seus passageiros para salvar outras vidas?

MAIS INFORMAÇÕES

O bem maior, como a ética, desliza por uma ladeira muito escorregadia quando se trata do lado pessoal, como mostraram alguns pesquisadores em um estudo publicado na Science. Por meio de uma série de perguntas, sondaram a opinião de cidadãos norte-americanos sobre esses dilemas. A primeira conclusão é que a maioria dos pesquisados quer que os carros autônomos tenham esta moralidade utilitarista: melhor matar um passageiro do que atropelar 10 pedestres. No entanto, a maioria afirma que não compraria um carro com esses critérios em seu algoritmo.

A grande parábola dos veículos inteligentes seria que sua perfeição na hora de reduzir o número de mortes faça com que os usuários não queiram comprá-los. E a cada ano que forem adiados será um ano em que não estarão sendo evitados acidentes causados por erros ou negligência humanos — um total de 90% dos acidentes atuais, segundo alguns cálculos. Mas nos aterra pensar que nossos carros sejam programados para matar, para nos matar. Preferimos que esse algoritmo seja colocado somente nos dos outros.

Quem você atropelaria?

A equipe do MIT que participou do estudo lançou um site no qual se pode realizar um teste para pôr à prova nossos critérios morais em vários cenários muito complexos. Matar o passageiro ou um pedestre que atravessava no lugar certo? Atropelar dois idosos ou um menino? A um médico que atravessa no vermelho ou a um ladrão que cruza no verde? Terminado o teste, você poderá comparar o seu critério com a média dos demais pesquisados.

"Os programadores se sentirão obrigados a escrever algoritmos que antecipem situações nas quais estejam várias pessoas que poderiam ser prejudicadas”, explica Azin Shariff, um dos autores do trabalho. “São coisas que não vão poder evitar. Haverá situações nas quais as regras gerais vão entrar em conflito e tem de haver algoritmos escritos para fazer frente a isso”, conclui Shariff, especialista em comportamento ético da Universidade de Oregon.

A maioria dos pesquisados não compraria um carro que sacrificaria o passageiro, embora considere que seja a melhor opção para os carros dos outros

Trata-se de um problema moral clássico, como o chamado dilema do bonde: você empurraria um homem muito gordo para que freie com seu corpo a máquina, matando-o, mas salvando a vida de outras cinco pessoas que estão sobre a via? Em geral, somente 30% das pessoas respondem que o fariam. Imaginemos o complicado que é transferir esses conflitos aos carros inteligentes, que chegarão a saber se viaja com eles uma grávida ou um doente, ou que vão atropelar um menino que cruza quando não deveria ou um idoso que atravessava de forma correta. A casuística é infinita, mas os carros farão o que lhes disserem para fazer, não duvidarão.

"A resposta não é clara. É um debate que ainda está muito aberto e não está claro quem deve tomar a decisão”, afirma Ramón López de Mántaras, diretor do Instituto de Pesquisa em Inteligência Artificial do CSIC. E se pergunta: “Deve ser decidido pelo Governo, os fabricantes, os consumidores?”. Segundo o estudo da Science, as pessoas não querem que o Governo obrigue a que os carros tenham esse espírito utilitarista que os leve a escolher a morte do passageiro. As grandes corporações do transporte automatizado (Uber, Google, Volvo, Ford...) já se organizaram juntas em um poderoso lobby para influir nas decisões políticas que deverão ser tomadas.

López de Mántaras sugere que talvez esses carros possam aprender de forma autônoma seu próprio critério moral, já que a inteligência estará mais desenvolvida quando chegarem os veículos completamente autônomos, chamados de nível 5. “Criaria outro problema: sairiam de fábrica iguais, mas cada um desenvolveria de forma diferente suas opções éticas”, diz. De qualquer modo, pede transparência absoluta. Algo que talvez não vá tranquilizar muito o consumidor, considerando o escândalo das emissões dos automóveis.

"A decisão deve ser dos governos, dos fabricantes, dos consumidores?” se pergunta López de Mántaras, que considera que todas as máquinas inteligentes e autônomas deveriam estar reguladas com critérios éticos

Por que analisamos a moralidade dos carros inteligentes e não a de outras máquinas inteligentes? López de Mántaras acredita que a inteligência artificial, quando tiver autonomia completa, terá de ser regulada sempre segundo critérios morais. E cita futurísticas armas inteligentes ou os bots que jogam hoje de forma autônoma na bolsa: “Já deveriam estar controlados, desde cima”. Se um carro tem de ter um critério moral para atropelar esta ou aquelas pessoas, por que um robô inteligente não deveria ter critério moral para se negar a trabalhar para um empresário explorador ou um supercomputador se negar a fraudar dinheiro?

Pode ser que os carros do futuro sejam unidades intercambiáveis, sem proprietário, em grandes sistemas de transporte, como são os vagões do metrô de hoje, especula Joshua Greene, especialista nesses juízos morais, da Universidade de Harvard, em outro artigo na Science. Greene sugere que simplesmente nossa mentalidade evoluirá, como aconteceu com os transplantes: “À medida que nossa forma de pensar se transferir dos veículos pessoais aos sistemas de transporte, as pessoas poderiam preferir sistemas que maximizem a segurança geral”.

Arquivado Em: