Seleccione Edição
Entra no EL PAÍS
Login Não está cadastrado? Crie sua conta Assine

O futuro da humanidade em suas mãos

Equipe de especialistas investiga, na Universidade de Oxford, os riscos de extinção humana

Precisamos de sabedoria para enfrentar o futuro. Para saber se os avanços tecnológicos caminham na direção certa ou não; se favorecem os seres humanos ou o oposto. Para se ter uma ideia do que fazer caso se apresentem cenários que ameaçam a sobrevivência da espécie, tais como os resultantes da ameaça nuclear, modificação de micróbios letais ou a criação de mentes digitais mais inteligentes do que o homem. Questões como essas são estudadas por um punhado de cérebros localizados na Universidade de Oxford, no chamado Instituto para o Futuro da Humanidade.

Liderando um grupo heterodoxo de filósofos, tecnólogos, físicos, economistas e matemáticos está um filósofo formado em física, neurociência computacional e matemática; um sujeito que, desde sua adolescência, buscava interlocutores para compartilhar suas inquietudes a respeito do filósofo alemão Arthur Schopenhauer; um sueco de 42 anos que passeia pelas instalações do instituto com uma bebida à base de vegetais, proteínas e gorduras que chama de elixir; e que escuta audiolivros com o dobro da velocidade para não perder um segundo do seu precioso tempo. Estamos falando de Nick Bostrom, autor de Superinteligência: Caminhos, Perigos, Estratégias (ainda não publicado no Brasil), um livro que causou impacto, uma reflexão sobre como lidar com um futuro no qual a Inteligência Artificial pode superar a humana, um ensaio que foi endossado explicitamente por cérebros do Vale do Silício como Bill Gates e Elon Musk; filósofos como Derek Parfit e Peter Singer; e físicos como Max Tegmark, professor do Instituto de Tecnologia de Massachusetts. Um trabalho que, além disso, entrou para a lista de best-sellers elaborada pelo The New York Times Book Review. A ONU o convida para dar palestras, assim como institutos de pesquisa como a The Royal Society; uma de suas palestras para a organização TED já conta com mais de 1,7 milhão de visualizações. E Stephen Hawking já alertou o mundo: é preciso ter cuidado com a Inteligência Artificial.

O Instituto para o Futuro da Humanidade — FHI, na sigla em inglês — é um espaço com salas de reuniões batizadas com nomes de heróis anônimos que, com um gesto, salvaram o mundo — como Stanislav Petrov, o tenente-coronel russo que evitou um acidente nuclear durante a Guerra Fria —; onde fluem ideias, trocas de pontos de vista, onde florescem hipóteses e análises. Principalmente, às tardes e noites: o chefe é, como ele mesmo confessa, um corujão; fica no escritório até as 2h da madrugada.

"No momento em que saibamos como fazer máquinas inteligentes, vamos fazê-las", disse Bostrom, em uma sala do instituto que dirige, “e, até lá, devemos saber como controlá-las. Se você tem um agente artificial com objetivos diferentes dos seus, quando se torna suficientemente inteligente é capaz de antecipar suas ações e fazer planos com base nos seus, o que poderia incluir esconder suas próprias habilidades de forma estratégica”. Especialistas em Inteligência Artificial citados em seu livro dizem que há uma probabilidade de 90% de que, entre 2075 e 2090, existam máquinas inteligentes como os humanos. Na transição para essa nova era, será preciso tomar decisões. Talvez inocular valores morais às máquinas. Evitar que se voltem contra nós.

É para a análise desse tipo de suposições e cenários que este especialista lê intensivamente sobre machine learning (aprendizagem automática, um segmento da inteligência artificial que explora técnicas para que os computadores possam aprender por si mesmos) e sobre economia da inovação. Para Bostrom, o tempo nunca é suficiente. Ler, ler, ler, consolidar os conhecimentos, aprofundar, escrever. "O tempo é precioso. É um recurso valioso que constantemente desliza por entre os dedos."

As pessoas parecem que se esquecem da guerra nuclear. Uma mudança para pior na geopolítica poderia se tornar um perigo

Estudar, formular hipóteses, desenvolvê-las, antecipar cenários. É o que se faz neste instituto onde se promove o brainstorming (uma tempestade de ideias) e a videoconferência, um labirinto de salas dominadas por lousas vileda com diagramas e em cuja entrada está pendurado um cartaz que reproduz a capa de Admirável Mundo Novo, a visionária distopia do livro de Aldous Huxley, publicado em 1932. Um total de 16 profissionais trabalha aqui.

Publicam revistas acadêmicas, produzem relatórios de risco para empresas de tecnologia, para Governos (por exemplo, para o finlandês) ou para a ONU, que está se preparando para construir seu primeiro programa de Inteligência Artificial — um dos representantes do programa visitava os escritórios do FHI na semana passada. Niel Bowerman, diretor-adjunto, físico do clima e ex-assessor da equipe política de Energia e Meio Ambiente de Barack Obama, diz que no instituto sempre estudam quão grande é um problema, quantas pessoas trabalham nele e quão fácil é avançar nessa área para determinar os campos de estudo.

Bostrom é quem comanda o instituto, quem decide onde ir, o visionário. Desenvolve seu trabalho graças ao incentivo filantrópico de James Martin, milionário interessado nas questões de riscos existenciais do futuro, que há 10 anos impulsionou o FHI para estudar e refletir sobre coisas que a indústria e Governos, guiados por seus próprios interesses, não têm por que pensar.

O filósofo sueco, que foi incluído em 2009 na lista dos 100 maiores pensadores globais da revista Foreign Policy, está interessado em estudar, em particular, sobre as ameaças distantes, as quais não gosta de colocar datas. "Quanto maior for o prazo", diz, "maiores são as possibilidades de um cenário de extinção ou de era pós-humana”. Mas existem perigos no curto prazo. Os que mais preocupam Bostrom são aqueles que podem afetar negativamente as pessoas como pragas, vírus da gripe aviária, as pandemias.

Há uma corrida entre nosso progresso tecnológico e nossa sabedoria, que vai muito mais devagar

Em relação à Inteligência Artificial e sua relação com a militar, diz que os riscos mais evidentes são representados por drones e pelas armas letais autônomas. E lembra que a guerra nuclear, embora com poucas probabilidades de acontecer, ainda é um perigo latente. "As pessoas parecem que não se preocupam mais com ela; uma mudança para pior na situação geopolítica poderia se tornar um grande perigo."

A biotecnologia e, em particular, a possibilidade oferecida pelo sistema de edição genética CRISPR de criar armas biológicas também colocam novos desafios. "A biotecnologia está avançando rapidamente; permitirá manipular a vida, modificar micróbios com grande precisão e potência. Isso abre caminho para habilidades muito destrutivas." A tecnologia nuclear, destaca, pode ser controlada. A biotecnologia, a nanotecnologia, o que alguém faz em uma garagem com um equipamento de segunda mão, comprado no eBay, nem tanto. Com pouco, é possível fazer muito mal.

Depois de superar sua fase trans-humanista — fundou, em 1998, com David Pearce, a Associação Mundial Trans-humanista, grupo que defende com entusiasmo a expansão das habilidades humanas através do uso de tecnologias—, Bostrom encontrou na Inteligência Artificial o campo perfeito para desenvolver seu trabalho. A corrida nessa área deslanchou; grandes empresas — o Google comprou a empresa de tecnologia DeepMind, em 2014 — e Estados brigam para se apossar de um setor que poderia proporcionar poderes imensos, quase inimagináveis.

Um dos cenários projetados em seu livro é a tomada de poder por uma Inteligência Artificial. Ocorreria uma explosão de inteligência. As máquinas chegariam a um ponto em que superam seus programadores, os humanos. São capazes de melhorar a si mesmas. De desenvolver grandes habilidades de programação, estratégicas, de manipulação social, de hacking. Podem querer controlar o planeta. Os seres humanos podem ser um obstáculo para seus objetivos. Para assumir o controle, escondem suas cartas. Podem se mostrar inicialmente dóceis. No momento em que desenvolvem todos seus poderes, podem lançar um ataque contra a espécie humana. Hackear drones, armas. Lançar robôs do tamanho de um mosquito desenvolvidos em nanofábricas produtoras de gás mostarda. Isso é apenas a síntese do desenvolvimento de um cenário.

Mas, como dizia a crítica da revista The Economist sobre o livro Superinteligência, as implicações da introdução de uma segunda espécie inteligente na Terra merecem que alguém pense nelas. "Antes, muitas dessas questões, não apenas aquelas da AI [sigla em inglês de Artificial Intelligence], costumavam estar no campo da ficção científica, da especulação", diz Bostrom, "para muitas pessoas era difícil entender ser possível fazer trabalho acadêmico com isso, que poderiam produzir avanços intelectuais".

O livro também apresenta um cenário no qual a Inteligência Artificial se desenvolve em diferentes setores em paralelo e gera uma economia que produz patamares de riqueza inimagináveis, surpreendentes avanços tecnológicos. Os robôs, que não dormem nem pedem férias, produzem sem parar e substituem os seres humanos em vários trabalhos.

— Os robôs nos enriquecerão ou nos substituirão?

— Primeiramente, talvez nos enriqueçam. No longo prazo, vamos ver. O trabalho é caro e não é algo desejado, então é preciso pagar as pessoas para fazê-lo. Automatizá-lo parece benéfico. Isso cria dois desafios: se as pessoas perdem seus salários, como podem se manter? O que se torna uma questão política: planeja-se uma garantia de renda básica? Um Estado de bem-estar? Se esta tecnologia realmente torna o mundo um lugar muito mais rico, com um crescimento mais rápido, o problema deveria ser fácil de resolver, haveria mais dinheiro. O outro desafio é que muita gente vê seu trabalho como necessário para ter status social e para que sua vida tenha sentido. Hoje, estar desempregado não é ruim só porque você não tem dinheiro, mas também porque muitas pessoas se sentem inúteis. Seria preciso mudar a cultura de modo que não pensemos que trabalhar por dinheiro é algo que dá valor. É possível, há exemplos históricos: os aristocratas não trabalhavam para viver; até pensavam que fazer isso era degradante. Acreditamos que as estruturas de significado social são universais, mas são recentes. A vida das crianças parece fazer muito sentido, mesmo se não fazem nada útil. Sou otimista: a cultura pode mudar.

Alguns segmentos da comunidade científica acusaram Bostrom de ser muito radical. Especialmente em sua fase trans-humanista. "Seus pontos de vista sobre a edição genética ou sobre a melhora do ser humano são controversos", diz Miquel-Ángel Serra, biólogo que acaba de publicar, em parceria com Albert Cortina, Humanidade: Desafios Éticos das Tecnologias Emergentes (em espanhol). "Somos muito céticos em relação às suas propostas." Serra, no entanto, deixa claro que Bostrom está agora no centro do debate sobre o futuro da Inteligência Artificial, que é uma referência.

— Você projeta uma visão muito apocalíptica em seu livro do que poderia acontecer com a humanidade?

— Muitas pessoas podem ter a impressão de que sou mais pessimista em relação à ‘AI’ do que realmente sou. Quando o escrevi, parecia mais urgente tentar ver o que poderia dar errado para nos certificar de como evitar isso.

— Mas você é otimista em relação ao futuro?

— Tento não ser pessimista nem otimista. Tento ajustar minhas crenças ao que a evidência aponta; com nosso conhecimento atual, acredito que o resultado final pode ser muito bom ou muito ruim. Embora talvez pudéssemos deslocar a probabilidade para um bom final, se trabalharmos duro para isso.

— Ou seja, há coisas para fazer. Quais?

— Estamos fazendo todo o possível para criar este campo de pesquisa de controle do problema. Devemos manter e cultivar boas relações com a indústria e com os desenvolvedores de Inteligência Artificial. Além disso, há muitas coisas que não vão bem neste mundo: pessoas que estão morrendo de fome, que são picadas por um mosquito e contraem malária, que se enfraquecem devido ao envelhecimento, desigualdade, injustiça, pobreza, e muitas [coisas] podem ser evitadas. No geral, acredito que há uma corrida entre nossa habilidade de fazer as coisas, de avançar rapidamente nossas habilidades tecnológicas, e nossa sabedoria, que vai muito mais devagar. Precisamos de um certo nível de sabedoria e colaboração para o momento em que alcancemos determinados marcos tecnológicos, para sobreviver a essas transições.

MAIS INFORMAÇÕES