Seleccione Edição
Login

Máquinas espertas, mas sem bom senso

Os computadores não aprendem como os humanos. Na verdade, apenas conseguem reconhecer padrões a partir de dados

Partida de Go entre o coreano Lee Se-Dol e o computador do Google, em Seul, em março de 2016. Ampliar foto
Partida de Go entre o coreano Lee Se-Dol e o computador do Google, em Seul, em março de 2016. AFP/ Getty Images

Imaginem que tivéssemos uma máquina para viajar no tempo e pudéssemos transportar Isaac Newton do fim do século XVII para hoje. Levaríamos o físico a um lugar que pudesse lhe ser familiar, como, por exemplo, a capela do Trinity College, na Universidade de Cambridge. Uma vez ali, mostraríamos a ele um celular de última geração. Newton, que demonstrou que a luz branca se decompõe em várias cores com a incidência de um raio de sol em um prisma, sem dúvida se surpreenderia que um objeto tão pequeno produzisse cores tão vivas na escuridão da capela. Depois o celular tocaria com uma música que ele pudesse reconhecer, como uma ópera de Haendel. Em seguida, mostraríamos na tela sua obra Principia Mathematica e o faríamos ver como usar os dedos para ampliar o texto. Suponhamos também que mostrássemos a ele como tirar fotos, gravar vídeos e som, fazer cálculos aritméticos com grande velocidade e precisão, contar os passos que andamos, guiar-nos para nosso destino e, sem dúvida, conseguir falar com alguém a milhares de quilômetros.

Newton não seria capaz de dar uma explicação coerente. Não conseguiria distinguir esse dispositivo da magia. O que mais poderia imaginar este pai da física do que pode fazer um dispositivo assim? Acreditaria que pode funcionar indefinidamente? Acreditaria também que esse dispositivo pode transformar chumbo em ouro? A química em sua época era alquimia, então provavelmente sim. Todos tendemos a não ver os limites daquilo que nos parece mágico.

Este é exatamente um dos problemas que temos na hora de imaginar as tecnologias do futuro. Como disse Arthur Clarke nos anos sessenta: “Qualquer tecnologia suficientemente avançada não pode ser diferenciada da magia”. Na inteligência artificial (IA) acontece o mesmo. Parece que seu potencial não tem limites, mas na realidade a IA permanece empacada há mais de 50 anos em uma questão fundamental: como dotar as máquinas de bom senso? Esta é uma questão crucial se queremos conseguir inteligências artificiais em geral indistinguíveis da inteligência humana. Até hoje, os pesquisadores de IA não veem qualquer indício que nos permita afirmar que o problema pode ser resolvido.

Tendemos a acreditar que a IA não tem limites quando de fato é muito limitada e não tem quase nada que ver com a inteligência humana

Qual é a situação real da IA? Vamos nos concentrar nos espetaculares resultados obtidos recentemente com o que se conhece como deep learning (aprendizagem profunda), que permitiram que um software chamado AlphaZero tenha conseguido, depois de jogar contra si mesmo durante algumas horas, aprender a jogar Go e xadrez em níveis nunca antes alcançados, superando e muito os melhores jogadores humanos e também os melhores jogadores software (que no xadrez tinham vencido há tempos os melhores jogadores humanos). Pois bem, esses sistemas de aprendizagem profunda são extremamente limitados já que são unicamente capazes de aprender a reconhecer padrões analisando enormes quantidades de dados.

Não é exagero afirmar que, de fato, não aprendem realmente nada no sentido humano do que entendemos por aprender. Ou seja, na realidade não sabem nada novo depois de terem sido treinados para adquirir uma competência. Prova disso é que o que se conhece como “esquecimento catastrófico”, que significa que os sistemas de aprendizagem profunda perdem tudo que foi aprendido a partir do instante em que se ensina algo novo a eles.

Por exemplo, se depois de ter “aprendido” a jogar Go treinamos um sistema de aprendizagem profunda a diferenciar gatos e cachorros mostrando a eles milhões de imagens de ambos, o sistema aprenderá perfeitamente a distingui-los mas será incapaz de voltar a jogar Go. Seria preciso voltar a treiná-lo para que de novo “aprenda a jogar Go” e isso faria com que em seguida seria incapaz de distinguir gatos de cachorros.

Os verdadeiros perigos já estão aqui e têm a ver com privacidade, autonomia dos sistemas e com os vieses dos algoritmos

O excessivo antropomorfismo creio que seja o motivo pelo qual a sociedade tem em grande medida uma percepção errônea do que é IA. Quando as conquistas espetaculares de uma IA específica são apresentadas em uma competição concreta, como no caso do AlphaZero, tendemos a generalizar e atribuímos à IA a capacidade de fazer praticamente qualquer coisa que os seres humanos fazem e de uma forma muito melhor. Em outras palavras, acreditamos que a IA não tem limites quando de fato é muito limitada e, o que é mais importante, não tem quase nada a ver com a inteligência humana.

É verdade que a inteligência humana é a referência principal no sentido de se chegar ao objetivo maior da IA, ou seja, uma IA forte e geral. Mas em minha opinião, por mais sofisticada que chegue a ser a IA, sempre será diferente da humana, já que o desenvolvimento mental que toda inteligência complexa exige depende das interações com o ambiente e essas interações dependem ao mesmo tempo do corpo, em particular do sistema perceptivo e do sistema motor. Isso, somado ao fato de que as máquinas muito provavelmente não seguirão processos de socialização e aculturação, influenciam ainda mais que, por mais sofisticadas que cheguem a ser, as máquinas jamais terão uma inteligência diferente da nossa.

O fato de serem inteligências alheias à humana, e portanto alheias aos valores e necessidades humanos, nos deveria fazer refletir sobre possíveis limitações éticas no desenvolvimento da IA. Em particular, nenhuma máquina deveria tomar decisões de forma completamente autônoma nem dar conselhos que exijam, entre outras coisas, sabedoria (produto de experiências humanas) ou valores humanos.

O perigo da IA não é a singularidade tecnológica pela existência de futuras hipotéticas super inteligências artificiais. Não, os verdadeiros perigos já estão aqui e têm a ver com privacidade (vigilância e controle massivo dos cidadãos); autonomia dos sistemas de IA (armas autônomas, high frequency trading nos mercados de ações); excessiva confiança em suas capacidades (substituição de pessoas por máquinas em praticamente qualquer posto de trabalho); com o viés dos algoritmos de aprendizagem e as consequentes decisões erradas que representa; a incapacidade de prestar contas quando a decisão é errada; e a impossibilidade de explicar essas decisões em uma linguagem simples para as pessoas.

Apesar de suas limitações, acho que a IA tem um potencial extraordinário para beneficiar a sociedade desde que façamos um uso adequado e prudente. É necessário aumentar a consciência sobre os limites da IA, assim como agir de forma coletiva para garantir que seja utilizada em benefício do bem comum com segurança, confiabilidade e responsabilidade.

Ramón López de Mántaras é diretor do Instituto de Investigação em Inteligência Artificial do CSIC.

MAIS INFORMAÇÕES