_
_
_
_
_

A Europa se fixa em Asimov para regular as máquinas autônomas

Quem é responsável pelos danos causados por um robô?

Raúl Limón
Fotograma de um vídeo divulgado pela ABC, dos EUA, no momento do acidente
Fotograma de um vídeo divulgado pela ABC, dos EUA, no momento do acidenteap

O acidente de um carro autônomo da Uber em 19 de março, com o atropelamento e morte de um pedestre que cruzava a rua empurrando sua bicicleta em Tempe (Arizona, EUA), voltou a trazer à tona uma questão crucial sobre os robôs: a responsabilidade. A União Europeia quer antecipar-se a um futuro próximo, no qual as máquinas terão um peso fundamental nos acontecimentos, não só trágicos, mas também sociais, econômicos e políticos.

O Parlamento Europeu, em suas recomendações à Comissão para que regulamente o direito civil sobre a robótica, estabeleceu algumas premissas básicas colocadas já em meados do século passado por Isaac Asimov, o visionário cientista de origem russa, que faleceu em Nova York em 1992:

Mais informações
​Adeus aos carros em 2050
O emprego não corre perigo; seu salário sim
  1. Um robô não causará danos a um ser humano nem permitirá que, por inação, este sofra danos
  2. Um robô obedecerá às ordens que receber de um ser humano, a não ser que as ordens entrem em conflito com a primeira lei
  3. Um robô protegerá sua própria existência na medida em que dita proteção não entre em conflito com as leis primeira e segunda.

Estas leis se resumem em uma denominada 0: “Um robô não causará danos à humanidade nem permitirá que, por inação, esta sofra danos”.

Embora o acidente da Uber seja o mais midiático, o campo da responsabilidade pode chegar a ser muito amplo no futuro. Quem seria responsável pela morte de um paciente operado por robôs, ou por um diagnóstico ou tratamento errado em um sistema de assistência baseado na inteligência artificial, ou pela destruição de uma escola por um míssil autônomo, ou por um sinistro causado não só por um veículo, mas por eletrodoméstico programado com inteligência artificial, ou por um conflito social causado ou atiçado por mensagens falsas automatizadas?

Alguns paises já começaram a legislar, mas o caso europeu é distinto. “Na Europa, no âmbito dos consumidores é aplicada a diretriz sobre bens defeituosos, mas suas normas podem estar obsoletas para os produtos automatizados ou autônomos em suas tarefas específicas”, afirma Reyes Jiménez, professora de Direito Internacional Público da Universidade Pablo de Olavide. O próprio Parlamento de Estrasburgo reconhece isso ao reivindicar um marco “adequado, eficiente, transparente e coerente”.

"A responsabilidade civil deveria ser mais individualizada, delimitando-se a que corresponde ao projetista, ao fabricante, ao vendedor e até ao operador-consumidor final”, comenta Jiménez, que defende que as leis deveriam estar marcadas a todo o momento por princípios éticos.

Na mesma linha se situam as recomendações europeias, que alertam que, em qualquer caso, a regulação não pode impedir o desenvolvimento da robótica sempre que ela “estiver a serviço da humanidade”. É aqui onde o Parlamento Europeu vê nas leis de Asimov a base do futuro da robótica, em especial, na norma 0, que engloba as demais: “Um robô não causará danos à humanidade nem permitirá que, por inação, esta sofra danos”.

A Comissão Europeia avalia a diretriz 85/374/EEC sobre produtos defeituosos, que atualmente é aplicada para determinar sua validade na programação, na computação em nuvem, na Internet das Coisas e nos sistemas autônomos, bem como sobre quem deve ser o responsável em relação das danos causados pelo comportamento de um robô.

Efeitos perversos na democracia

Os sistemas de seguros adotados atualmente, como no caso dos veículos, são uma das ferramentas que a Comissão prevê estender de forma obrigatória aos robôs, mas admite que são insuficientes, já que é preciso considerar também “os impactos sociais e econômicos da inteligência artificial”, assim como “as consequências nos direitos fundamentais e na democracia”.

Alejandro Sánchez del Campo, jurista e autor do blog Replicante Legal, afirma que a Europa apresenta questões fundamentais. “Se o desenvolvimento tecnológico leva à inteligência autônoma, as categorias legais atuais podem não ser suficientes”, adverte.

Este advogado acredita que os sistemas jurídicos de agora regulam as máquinas existentes, que não tomam decisões, por isso a responsabilidade recai sobre o fabricante de um produto defeituoso, o operador dele, se não seguiu as especificações, ou o prejudicado, por uma imprudência. Nesses casos, contratar seguro para os robôs existentes, como no caso dos veículos, “faz sentido”.

Outra área, adverte Sánchez del Campo, é a responsabilidade penal, que até há pouco tempo na Espanha se limitava às pessoas e foi ampliada para as empresas. “É um debate inteligente. Embora ainda vá levar anos para se desenvolver sistemas autônomos, se não começamos já a pensar sobre suas implicações legais e morais, quando quisermos regulá-los pode ser tarde”, afirma.

“No futuro, se os dispositivos autônomos se generalizarem, será preciso adaptar a lei”, concorda Óscar-Rubén Sanz, diretor técnico da Kalibo, uma companhia de seguros para produtos tecnológicos. “A legislação, de algum modo, se antecipou ao vincular, por exemplo, o seguro aos veículos. Neste caso, com qualquer dano, a vítima está coberta, independentemente de se determinar que a responsabilidade foi do proprietário, do condutor ou por um defeito da máquina. É uma vantagem, mas não é suficiente para o imediato desenvolvimento tecnológico”, comenta.

Francisco Oliva, catedrático de Direito Civil da Universidade Pablo de Olavide, concorda com a importância do seguro para robôs como opção para a tecnologia atual, mas antecipa que é necessário pensar já no futuro porque o sistema do momento é insuficiente. “A lei de produtos defeituosos está pensada para um micro-ondas, não para processos de aprendizagem das máquinas cujas consequências são imprevisíveis”, observa. Oliva acrescenta que agora é o prejudicado quem tem de provar o defeito do produto, algo de extraordinária complexidade em sistemas robóticos avançados. “É uma prova diabólica ou impossível”, alerta.

Sobre os conflitos gerados pelo uso de bots em acontecimentos políticos e sociais, oliva afirma que agora, quando há um responsável humano por trás da programação dos robôs de difusão maciça, a lei é clara: “Aquele que por ação ou omissão causa danos a outro, envolvendo culpa ou negligência, está obrigado a reparar o dano causado”. Mas admite que essa legislação não está preparada para um futuro de máquinas 100% autônomas. “Nesse cenário, seria preciso considerar a figura da personalidade mecânica ou eletrônica. Mas hoje é ficção científica”, afirma.

Mais informações

Arquivado Em

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_