Seleccione Edição
Entra no EL PAÍS
Login Não está cadastrado? Crie sua conta Assine

Estarão os androides sonhando com batalhas?

A ONU estuda o uso bélico dos robôs. Os cientistas alertam para o perigo de permitir que as máquinas decidam matar

Veículo militar autônomo conhecido como Crusher (Esmagador).
Veículo militar autônomo conhecido como Crusher (Esmagador). A.P.

É lícito dar a uma máquina a licença para matar? Existe alguma forma de fazer os robôs respeitarem as leis da guerra, a Convenção de Genebra? Essas perguntas chegaram às Nações Unidas porque deixaram de ser hipótese de trabalho ou temas de ficção científica para se tornarem um dilema real, sobre o qual as principais potências militares do mundo deverão se pronunciar. Atualmente pelo menos meia dúzia de países conduzem programas de desenvolvimento de armas capazes de atuar de forma autônoma (mas não de matar), os chamados robôs assassinos (Killer Robots), armas autônomas letais na terminologia da ONU. Pela segunda vez, esse organismo internacional tratará o tema no âmbito da Convenção de Armas Convencionais (CCW, na sigla em inglês) marcada para o mês de novembro em Genebra. “O assunto está nas Nações Unidas, porque a comunidade internacional percebeu que não se trata de uma nova arma: isso muda a guerra”, afirma Steve Gross, responsável pela divisão de armamentos da Human Rights Watch (HRW).

“Ainda não existem robôs assassinos; mas a tecnologia sim”, afirma Noel Sharkey, professor de Inteligência Artificial na Universidade do Sheffield (Inglaterra), que há sete anos trabalha para pôr o assunto na pauta internacional e dirige uma campanha chamada Stop Killer Robots, que mobiliza 52 organizações, desde a International Human Rights Clinic da Universidade de Harvard até a HRW e a Anistia Internacional. “O debate é sobre até que ponto podemos chegar: nosso objetivo é proibir a função de matar, impedir que essa decisão seja delegada a uma máquina”, prossegue o professor Sharkey. O uso militar dos robôs também tem defensores, que preveem um futuro no qual serão mortos os robôs e não as pessoas.

O temor de que os robôs se tornem assassinos sempre foi um pesadelo de ficção científica, em filmes como Terminator ou Robocop. De fato, Isaac Asimov formulou em seu conto Círculo Vicioso, de 1942, as famosas três leis da robótica, destinadas a garantir que, por ação ou por omissão, seguindo ordens ou não, um robô jamais ferisse um ser humano. Mas o futuro já está aqui ou, pelo menos, muito perto (curiosamente o relato de Asimov transcorre em 2015). “Chegamos muito longe na capacidade de autonomia, embora se necessite de uma inteligência artificial muito sofisticada da qual ainda estamos distantes. Alguns cientistas acreditam que faltam uns 10 anos”, diz Steve Gross, da HRW. Angela Kane, a Alta Representante da ONU para o Desarmamento, afirmou recentemente: “Qualquer arma de guerra é terrível, mais ainda se puder ser ativada sem intervenção humana. Cada vez se fala mais da crescente automatização da guerra e estamos muito perto da criação de armas totalmente automatizadas”.

Robô militar fabricado pela Boston Dynamics.
Robô militar fabricado pela Boston Dynamics.

Desde a I Guerra Mundial, quando metralhadoras, tanques e aviões foram utilizados pela primeira vez em grande escala, e até mesmo antes disso, já que muitos historiadores militares acreditam que Roma conquistou o mundo conhecido, porque possuía armas muito melhores que os outros, a tecnologia fez parte da guerra e a automatização é um desenvolvimento lógico. Noel Sharkey explica que a automatização já é utilizada em sistemas de interceptação de mísseis, como o escudo israelense Cúpula de Ferro, cuja eficácia se deve em parte por seu automatismo (uma máquina sempre será muito mais rápida que um ser humano). Os drones também representam uma revolução tecnológica: os aviões controlados a distância, em alguns casos a milhares de quilômetros, tornaram-se decisivos nos enfrentamentos bélicos atuais. Mas, em todos os casos, seres humanos, quase sempre militares profissionais, são os que tomam a decisão chave: disparar.

Atualmente, vários países estão desenvolvendo robôs militares com alta capacidade de autonomia, alguns em estágio bastante avançado. O X47-B, desenvolvido pelo Northrop Grumman dentro do Programa de Sistemas de Combate Não Tripulados (UCAS) da Marinha dos Estados Unidos, é capaz de aterrissar e decolar sozinho (sem nenhum tipo de controle a distância) em um porta-aviões. O Reino Unido testou um aparelho similar na Austrália neste ano. A China está desenvolvendo o Anjian (Espada Negra), outro avião autônomo. Em terra, a Agência de Pesquisa de Projetos Avançados de Defesa (DARPA) desenvolveu um veículo blindado autônomo, de sete toneladas, que tem o pouco tranquilizador nome de Crusher (Esmagador). Israel criou o Guardium, capaz de patrulhar sozinho e carregar armas, embora a decisão de disparar seja sempre humana. A Coreia do Sul tem o Samsung SGR-1, que patrulha a fronteira com a Coreia do Norte e está trabalhando em sistemas para coordenar robôs e humanos no campo de batalha.

E não se trata apenas de robôs pensados para combater. Noel Sharkey descreve máquinas autônomas desenhadas para disparar spray de pimenta e balas de borracha contra manifestantes. No final de 2013, o Google comprou a Boston Dynamics, o oitavo fabricante de robôs que o gigante da Internet adquiriu nos últimos dois anos. Com uma diferença: em vez de vender para o público, faz pesquisas para o Pentágono. Seus principais êxitos se chamam BigDog (Cachorro Grande) e WildCat (Gato Selvagem), dois aparelhos capazes de se mover em terrenos acidentados.

Ao que se sabe, nenhum desses dois modelos foi testado em combate real. Como escreveu Huw Williams, o perito em sistemas não tripulados da revista militar Jane's, “nem sequer os programas mais avançados de robôs assassinos conseguiram criar máquinas capazes de atuar por si mesmas”. “A autonomia é, por enquanto, bastante limitada. Podem ir de um lugar a outro seguindo certos parâmetros, mas, em termos de pensamento, não chegamos lá ainda”, acrescentou.

O objetivo da campanha Stop Killers Robots é que nunca cheguem a ser desenvolvidas armas capazes de tomar a decisão de matar ou não, como nunca foram desenvolvidos os lasers capazes de cegar, proibidos antes de sua criação. O assunto será debatido na ONU em 13 e 14 de novembro, mas a comunidade internacional ainda está muito longe de um acordo. Os defensores dos robôs militares argumentam que, se utilizados corretamente, esses equipamentos poderiam reduzir as baixas e, além disso, os países dificilmente renunciariam a poderosos programas militares que outros países continuam desenvolvendo. Entretanto, a imensa maioria da comunidade científica considera que representam um perigo, não a capacidade de autonomia em si, mas a delegação da decisão de matar. Sem falar que é impossível uma máquina ser responsabilizada perante a Convenção de Genebra.

“A guerra sem reflexão é uma matança mecânica”, assegurou Christof Heyns, Alto Representante da ONU para as execuções extrajudiciais, arbitrárias e sumárias, quando o tema foi tratado pela primeira vez nas Nações Unidas, em maio. “Da mesma forma que acabar com qualquer vida humana merece uma certa deliberação, a decisão de permitir que as máquinas matem merece, pelo menos, uma reflexão coletiva internacional”.