Seleccione Edição
Entra no EL PAÍS
Login Não está cadastrado? Crie sua conta Assine

Elon Musk encabeça uma petição à ONU para proibir os ‘robôs soldado’

116 especialistas em inteligência artificial pedem à instituição que impeça o uso de armas autônomas

Elon Musk
Robô armado, em exposição em Hanover AP

Em O exterminador do futuro, o popular filme de James Cameron, o rebelde John Connor enfrentou um exército de robôs assassinos que detinha o controle do planeta. Aquela situação apocalíptica encaixava-se perfeitamente no roteiro de um filme de ficção científica, mas ninguém pensou realmente que poderia se desenvolver no futuro. No entanto, para um grupo de especialistas e líderes empresariais de todo o mundo, é uma possibilidade muito real: 116 especialistas em robótica e inteligência artificial redigiram uma carta às Nações Unidas, na qual solicitam a proibição do desenvolvimento de robôs dedicados à guerra. O documento conta com a assinatura, entre outros, de Elon Musk —fundador da Tesla e da SpaceX— que já alertou há um mês sobre os perigos para a civilização da inteligência artificial. Outro dos assinantes é Mustafa Suleyman, cofundador da companhia de inteligência artificial DeepMind, propriedade do Google.

A carta se tornou pública durante a abertura do Congresso Internacional de Inteligência Artificial (IJCAI, em sua sigla em inglês), que começou na segunda-feira, dia 21 de agosto, em Melbourne (Austrália). “Uma vez desenvolvidas [as armas autônomas], permitirão que conflitos armados sejam travados em uma escala maior do que nunca, e em escalas de tempo mais rápidas do que os humanos podem compreender. Estas podem ser armas de terror, armas que os déspotas e os terroristas usam contra populações inocentes, e armas hackeadas para comportar-se de maneira indesejável. Não temos muito tempo para agir. Quando a caixa de Pandora se abrir, será difícil de fechar”, afirma em seu último parágrafo.

Os especialistas advertem na carta sobre a possibilidade de uma “terceira revolução bélica” com a iminente chegada de robôs e equipes não tripuladas que poderiam elevar as guerras a confrontos com consequências imprevisíveis. Nesse sentido, os signatários advertem que a veloz evolução da inteligência artificial pode permitir que o desenvolvimento dessas armas autônomas chegue em poucos anos, e não em décadas, como se estimava anteriormente. “Não temos tempo demais para agir. Uma vez que esta caixa de Pandora for aberta, será difícil fechá-la”, advertem os especialistas da ONU, que realizará na sexta-feira uma reunião para debater sobre os perigos das armas autônomas.

O uso bélico da inteligência artificial está há três anos gerando um intenso debate nas Nações Unidas que vai além da ficção científica, que se concentra nas implicações jurídicas e nos riscos para os civis inocentes nas regiões de conflito. A ideia de que em um futuro não muito distante se perca a compaixão e o julgamento humano na hora de executar um ataque preocupa as delegações. Atualmente há cerca de vinte países que reclamam sua proibição. “Hoje, a possível perda de vidas humanas é um elemento dissuasório para o início de conflitos e a escalada bélica, mas quando as vítimas potenciais forem robôs, aumentará dramaticamente a possibilidade de enfrentamento”, afirmou a especialista Mary-Anne Williams, da Universidade de Sidney, à AFP.

No seio do organismo há, de fato, um consenso favorável a que se formalize um processo que sirva para discutir sobre os temores associados a essas tecnologias. Mas em vez de discutir a possibilidade de adotar uma convenção internacional que imponha um maior controle, as grandes potências se inclinam mais nesse momento a compartilhar boas práticas e elevar a transparência.

Estados Unidos, Rússia, China, França, Reino Unido, Israel e Coreia do Sul são os países mais avançados no desenvolvimento de sistemas de defesa autônomos. As ONGs, como Human Rights Watch, consideram no entanto que é um imperativo moral que se estabeleça uma linha vermelha, para assim manter o controle humano nas decisões sobre a identificação de objetivos e o uso último da força.

A conferência realizada no fim de 2016 para a revisão do tratado que regula o uso de armas convencionais já deu um primeiro passo para regulamentar o uso bélico da inteligência artificial, ao estabelecer um grupo de especialistas que debata a sério esses sistemas. Os diplomatas da ONU concordam que as convenções atuais têm muitas lacunas sobre o desenvolvimento e uso dessas armas. Outra coisa é que isso derive na negociação de um instrumento legal.

Não temos tempo demais para agir. Uma vez que esta caixa de Pandora se abrir, será difícil fechá-la

O que os especialistas temem é um exército de robôs capazes de começar um enfrentamento bélico em grande escala em poucos minutos, e capazes de tomar decisões sobre o terreno sem necessidade de receber ordens. Parte do que pode vir por aí já está sendo testado nos principais exércitos do mundo, onde drones (aeronaves não tripuladas) sobrevoam o terreno inimigo e podem portar armamento letal. A marinha norte-americana, por exemplo, contará em breve em sua frota com um barco autônomo, Sea Hunter, um navio não tripulado de grande alcance que poderá ser usado para levar a cabo ataques a distância eliminando o risco de baixas próprias. Um barco de guerra com comando à distância, para simplificar o cenário.

Esse grupo de especialistas quer adiantar-se aos acontecimentos e fazer com que o órgão internacional proíba de antemão o desenvolvimento desses robôs ou instrumentos de guerra autônomos, da mesma forma que se proibiu na época o uso de armas químicas nos confrontos bélicos ou com laser.

Não é a primeira vez que os especialistas dessa conferência lançam uma advertência sobre os perigos da inteligência artificial. Elon Musk já assinou em julho de 2015 uma carta similar na qual expressava sua preocupação com o desenvolvimento dos robôs assassinos e pedia à ONU que tomasse posição no assunto, impondo um veto internacional. A petição foi assinada também por Steve Wozniak, cofundador da Apple, e o cientista Stephen Hawking.

MAIS INFORMAÇÕES