Seleccione Edição
Entra no EL PAÍS
Login Não está cadastrado? Crie sua conta Assine
TRIBUNA

Quando um carro autônomo atropela alguém, quem responde?

O verdadeiro tamanho do problema ainda é desconhecido, e as discussões a seu redor, incipientes

Pesquisador da Universidade da Califórnia inicia programa que auxilia cegos a interagirem com carro autônomo.
Pesquisador da Universidade da Califórnia inicia programa que auxilia cegos a interagirem com carro autônomo. AP

Há anos, acadêmicos vêm debatendo sobre os desafios impostos pela inteligência artificial ao regime legal da responsabilidade civil. É fácil perceber qual é o problema: quem deve responder pelos danos causados por um robô, ainda mais se esse robô aprendeu a agir de forma autônoma e independente? No último dia 19 de março, essa discussão ganhou contornos mais concretos com um atropelamento ocorrido no estado do Arizona, Estados Unidos, protagonizado por um carro autônomo da Uber. Trata-se do primeiro caso envolvendo a morte de um pedestre por meio de um veículo desse tipo.

Vídeos gravados pelo próprio veículo mostram que a vítima atravessou abruptamente uma rua mal iluminada, carregando uma bicicleta com sacos de compras. A pessoa que estava no banco do motorista, por sua vez, olhava para baixo no momento do acidente, descumprindo orientações no sentido de que os motoristas “reserva” fiquem sempre atentos, com as mãos no volante, para retomar o controle do veículo a qualquer tempo.

A Uber pretende, com os carros autônomos, automatizar o ponto nerval dos serviços que presta: a condução de veículos com passageiros. Mas não é a única empresa desenvolvendo carros conduzidos, total ou parcialmente, por sistemas autônomos, nem são seus veículos os únicos envolvidos em acidentes graves. Até o momento, sabe-se que houve pelo menos mais dois acidentes fatais envolvendo veículos autônomos da Tesla, um em 2017 e outro há poucos dias, que vitimaram seus motoristas. A tecnologia também vem sendo testada por empresas como Waymo e Apple, bem como por empresas automobilísticas tradicionais como Toyota, Ford, Honda e outras.

Neste artigo, vamos tratar brevemente da responsabilidade civil por danos causados por esse tipo de sistema. Tendo isso em mente, tentaremos responder: “Como atribuir a uma pessoa, ou a uma empresa, a responsabilidade pela reparação de danos causados por um sistema autônomo?” Nosso objetivo não é oferecer uma resposta definitiva para essa questão, mas expor de que maneira alguns dos principais conceitos jurídicos atuais aplicáveis à matéria poderiam ser utilizados, e testar se tais conceitos serão, na prática, suficientes para fazer frente aos desafios impostos pela inteligência artificial.

Níveis de autonomia

Para tratar dessas questões, precisamos considerar, em primeiro lugar, exatamente em que medida se pode falar de uma “autonomia” por parte de sistemas inteligentes. Carros autônomos, por exemplo, possuem diferentes graus de autonomia. Por isso, a Society of Autonomous Engineers (SAE), sociedade de padronização de standards baseada nos Estados Unidos, propôs uma classificação, posteriormente adotada pela National Highway Safety Administration (NHTSA), que intenta exatamente classificar veículos autônomos a partir da capacidade de ingerência que os seres humanos têm sobre suas ações. A classificação se dá do nível 0 ao 5, sendo deste nível o carro que realiza a maior parte de suas funções sem qualquer auxílio humano e em qualquer condição climática, e daquele o veículo que possui apenas algumas funções autônomas básicas, como a emissão de avisos sonoros em casos de risco.

Essa relação entre pessoas e sistemas inteligentes é chamada, por alguns autores, de a “interação homem-máquina”. Se a autonomia do veículo não for absoluta, a ação ou omissão humana pode ter influência, ou até mesmo ser decisiva, para a ocorrência de acidentes. Assim, enquanto estiver dentro da esfera de controle e influência de um ser humano, a automação de um veículo nem sempre será capaz de eximir os envolvidos em determinado dano de sua responsabilidade subjetiva, i.e., aquela baseada na culpa. Explicamos.

Os principais desafios

O sistema mais tradicional de responsabilidade por danos é o da “responsabilidade subjetiva”, que se baseia na culpa conforme definida pelo Código Civil Brasileiro: isto é, em negligência, imprudência ou imperícia. Além da culpa, para que uma pessoa possa ser condenada a ressarcir um dano, é sempre necessário demonstrar que foi uma ação ou omissão sua que resultou no prejuízo: isto é, que há um “nexo causal” entre a conduta culposa desta pessoa e o dano a que deu causa. Esse sistema, antiquíssimo, remonta ao direito romano.

Com a revolução industrial, a responsabilidade subjetiva passou a ser considerada insuficiente para lidar com todas as hipóteses de danos que podem ser causados. Isso porque o aumento da complexidade das cadeias de produção criou enormes dificuldades para o estabelecimento do “nexo causal” de que falamos acima, bem como para identificação de uma conduta culposa, entre outras razões. A figura da indústria complexa, e posteriormente da empresa de bens de consumo, que inserem produtos no mercado e criam, com isso, potencial de dano (i.e., um risco), passam a exigir inovação legislativa para fazer frente ao desafio de se ressarcirem os danos que causarem. Outras situações similares, que não necessariamente envolviam a comercialização de bens de consumo, paulatinamente passaram a existir e apresentaram desafios legais similares: a operação de aeronaves, usinas nucleares, transgênicos, entre outros. Assim, com o tempo, as leis passaram a prever uma responsabilidade que não se baseia na culpa do sujeito, mas no risco do objeto: a “responsabilidade objetiva”. A mais célebre aplicação desse instituto é no campo dos danos causados no contexto de relações de consumo: em praticamente todo o mundo, fornecedores de produtos ou serviços se responsabilizam por danos causados pelos produtos que inseriram no mercado, independentemente de culpa. No sistema brasileiro, importante notar que a configuração da responsabilidade objetiva depende da existência de um defeito no produto comercializado.

Voltando ao problema dos carros autônomos. Como vimos, dependendo do grau de autonomia do veículo, não poderemos excluir por completo a possibilidade de o humano “reserva” que estava no banco do motorista ser responsabilizado subjetivamente, especialmente caso sua contribuição para o acidente seja considerada culposa. Talvez, se a motorista reserva só não interviu por negligência, imprudência ou imperícia, seja esse exatamente o caso no atropelamento com o carro da Uber. Naturalmente, é possível ainda imaginar casos em que se constate um defeito em uma peça do veículo ou do próprio software que o opera, dando ensejo à responsabilidade objetiva do fabricante.

No entanto, é difícil aplicarmos os preceitos da responsabilidade subjetiva quando pensamos em sistemas de inteligência artificial, especialmente aqueles com alto nível de autonomia. Em primeiro lugar, porque se determinada ação não estava na esfera de influência de um ser humano, dificilmente poderíamos atribuir culpa a essa pessoa pelo dano causado pela máquina. Simplificando: em regra, não é culpa de ninguém que um robô tenha aprendido, sozinho, a tomar determinada ação, e que essa ação eventualmente resulte em um dano. Quanto maior for o grau de autonomia de um sistema, maior será a dificuldade de atribuir culpa a um indivíduo específico.

Em segundo lugar, a própria averiguação de um “nexo causal” é extremamente dificultada no caso de sistemas de inteligência artificial. Sistemas autônomos possuem algoritmos de machine learning extremamente complexos. Isso significa que são sistemas de “autoaprendizagem”, ou seja, aprendem a tomar decisões identificando padrões a partir de um conjunto de dados fornecidos pelo programador e pelas experiências que o próprio sistema adquire durante seu funcionamento. Pode-se dizer, portanto, que decisões tomadas por sistemas com elevado nível de autonomia são “independentes”, ou seja, independem tanto da vontade de seu usuário (por exemplo, o motorista do veículo autônomo) quanto de seus desenvolvedores. Essa capacidade de autoaprendizagem, deve-se dizer, é característica desejável e esperada desses sistemas, pois aumenta sua eficiência e é exatamente o que os define como imbuídos de “inteligência artificial”.

Em vista da própria estrutura interna desse tipo de sistema, na maior parte dos casos não será possível descobrir exatamente todos os fatores que foram levados em consideração para que certa decisão autônoma seja tomada. Trata-se do problema da black box — a caixa preta — da inteligência artificial. Essa dificuldade em descobrir o passo-a-passo do que levou à tomada de decisão desafia a investigação do nexo de causalidade entre uma conduta e o dano. Por isso, torna-se cada vez mais disseminada a exigência de transparência, ou de accountability, para os algoritmos, isto é, a adoção de práticas que facilitem a identificação dos fatores considerados pelo sistema para agir da forma como agiu. É o caso, por exemplo, de um projeto de lei atualmente em discussão na cidade de Nova York. Mas os problemas não param por aí.

Defender a aplicabilidade da responsabilidade objetiva, nos moldes como prevista pelo Código de Defesa do Consumidor, também não é tarefa simples. Ocorre que, conforme essa lei, para que uma empresa possa ser responsabilizada objetivamente por um dano, seu produto deve apresentar um “defeito”. Na definição da lei, um produto tem um defeito quando apresenta um nível de segurança abaixo daquele esperado para produtos daquele tipo. Infelizmente, é difícil defender que a capacidade de tomar decisões autônomas deveria configurar um defeito: essa independência é inerente a esses sistemas e é desejada por seus fabricantes e usuários. É difícil defender que uma característica inerente, desejada e inevitável de determinado produto deva ser considerada um defeito. Se não fossem imbuídos de autoaprendizagem, a própria utilidade dos sistemas de inteligência artificial estaria em risco. O direito se depara então com um problema: a possibilidade de agir autonomamente resulta em um risco inerente a esse tipo de sistema, o qual, no entanto, não consegue ser satisfatoriamente endereçado pela regulamentação existente.

A inteligência artificial desafia, portanto, tanto os conceitos de “culpa” e “nexo causal” quanto de “defeito”, que são, respectivamente, as bases das responsabilidades subjetiva e objetiva no Brasil (assim como na maior parte dos países de tradição jurídica romano-germânica).

Mas, além de todo o acima, algumas características práticas dos sistemas de inteligência artificial também apresentam novos desafios. Um dos exemplos é o fato de que muitos desses sistemas podem ser produzidos de forma “difusa”, isto é, vários indivíduos podem atuar na sua fabricação ou no desenvolvimento dos algoritmos neles contidos (muitas vezes, de diferentes lugares do mundo). Surge com isso, na prática, uma enorme dificuldade em identificar exatamente de quem é a culpa por determinada ação robótica, ou mesmo em identificar quem seria responsável por determinado “defeito”. Por se tratar de dificuldade que se apresenta especialmente no momento da definição do “nexo causal” entre uma pessoa e o dano a que deu causa, impede principalmente a configuração da responsabilidade subjetiva. Ainda mais desafiante, portanto, é a criação de sistemas inteligentes por pessoas não sujeitas às regras do Código de Defesa do Consumidor: milhares ou milhões de entusiastas espalhados pelo mundo e contribuindo para a criação de um sistema de forma gratuita, de forma similar ao que ocorre com os softwares livres. Ryan Calo atribui o nome de open robotics a esse tipo de iniciativa. Se cadeias de produção complexas eram um problema na revolução industrial — que se solucionou também com a figura da responsabilidade objetiva dos fornecedores de produtos — hoje se fala de cadeias complexas em sistemas desenvolvidos mesmo por pequenos players, como universidades, pesquisadores e simples entusiastas.

Outro ponto interessante diz respeito ao chamado “enviesamento algorítmico”. Como vimos, sistemas de inteligência artificial são projetados por humanos e começam a aprender a partir de uma base de dados fornecida também por humanos. Os programadores, naturalmente, não são pessoas totalmente neutras e destituídas de valores, e, inadvertidamente, podem acabar transferindo seus vieses naturais a esses sistemas. Isso porque a própria seleção dos dados que alimentarão a máquina é atividade subjetiva. Muito se falou, por exemplo, em softwares de reconhecimento facial que não reconhecem pessoas negras, ou daquele utilizado, nos Estados Unidos, para previsão de crimes, que conclui que pessoas negras são mais propensas a cometê-los. No primeiro caso, o problema adveio do fato de que o software não tinha, em sua base de treinamento, fotos de pessoas negras — o que pode resultar tanto da inexistência de dados disponíveis que representem essa população quanto da negligência dos programadores em representá-la em seus algoritmos. No segundo, pelo fato de o software ter sido alimentado com dados de pessoas efetivamente presas, por isso já anteriormente sujeitas a vieses racistas do sistema policial e judicial norte-americano.

Nessas situações, caso haja algum dano, e se ficar comprovado que a decisão do sistema foi tomada em virtude de vieses evitáveis dos desenvolvedores, pode-se discutir a responsabilidade destes tanto por culpa quanto por defeito. De qualquer maneira, é de se notar que o problema da black box e da produção difusa dos sistemas pode, novamente, impedir ou dificultar muito essa constatação.

A inteligência artificial apresenta, portanto, diversos obstáculos à identificação de elementos fundamentais para a condenação de um indivíduo, ou de uma empresa, a ressarcir danos causados por um sistema autônomo. Um dos caminhos alternativos propostos pela academia para fazer frente aos riscos inerentes a esse tipo de sistema é a criação de um novo tipo de responsabilidade objetiva baseada na mera “implementação de um robô”. Seria uma responsabilidade próxima daquela que adotamos hoje quanto a danos causados por animais, por exemplo. Assim como podemos ser responsabilizados caso um animal de estimação cause um dano para um terceiro, o mesmo pode ocorrer quanto a um sistema inteligente sob nossa guarda. O verdadeiro tamanho do problema, no entanto, ainda é desconhecido, e as discussões a seu redor, incipientes. De qualquer maneira, torna-se cada vez mais necessário que os profissionais e os estudiosos do direito passem a estudá-lo, pois certamente, num futuro próximo, casos parecidos com o que ocorreu no Arizona chegarão também aos tribunais brasileiros.

Enrico Roberto é advogado, mestre pela Ludwig-Maximilians-Universität de Munique (LMU-München), doutorando em Filosofia do Direito pela USP e pesquisador do Lawgorithm, think tank de pesquisa em inteligência artificial e direito.

Marcelo Frullani Lopes é advogado, especialista em direito e tecnologia da Informação pela Escola Politécnica da USP, mestrando em Filosofia do Direito pela USP e pesquisador do Lawgorithm, think tank de pesquisa em inteligência artificial e direito.

MAIS INFORMAÇÕES