Robôs com remorso?

Uma nova geração de autômatos será capaz de prever as consequências de suas ações

O pesquisador Pablo Lanillos e Tiago, o robô que se reconhece no espelho.
O pesquisador Pablo Lanillos e Tiago, o robô que se reconhece no espelho.

Tiago se olha pela primeira vez no espelho. Depois de vários movimentos com seu único braço, confirma: “Sou eu”, diz em alto e bom som o robô branco e preto de um metro e meio de altura. Dois anos depois de iniciar suas pesquisas com o projeto Selfception, o cientista espanhol Pablo Lanillos conseguiu fazer com que os androides fossem capazes de reconhecer a si mesmos.

Esse humanoide se identifica depois de realizar vários movimentos aleatórios com o braço diante de um espelho. Isso é possível porque Lanillos adaptou um modelo matemático baseado no funcionamento do cérebro humano: “As pessoas têm um modelo fixo e nosso cérebro age muito rápido para distinguir nossos movimentos”, assinala o pesquisador. “Mas o autorreconhecimento do robô não é pré-reflexivo [ou seja, saber que eu sou eu com toda minha história], é por repetição de movimentos”, acrescenta. No entanto, se programarmos um autômato com a mesma aparência de Tiago, que faça os mesmos movimentos no mesmo momento, o androide se confundirá e também acreditará que é ele próprio refletido em um espelho. “Mas se a réplica fizer um pequeno movimento distinto, Tiago perceberá instantaneamente que não é ele”, diz Lanillos.

MAIS INFORMAÇÕES

O projeto Selfception é inspirado em teorias sensório-motoras de psicologia e neurociência e se baseia na ideia de que o desenvolvimento das capacidades cognitivas passa primeiro pela aprendizagem de nosso corpo. Desde que estamos no útero materno, geramos um mapa que relaciona cada ação com uma resposta sensorial (nesse momento, começamos a construir a base para nos relacionarmos com o mundo). O programa ajuda a entender o cérebro humano e a melhorar as capacidades das máquinas quando interagem com pessoas, além de melhorar os algoritmos de aprendizagem automáticos.

Karl Friston, neurocientista especialista em imagens cerebrais e professor da University College of London (UCL), afirma que é essencial investigar por que os humanos agem de uma ou outra maneira e reduzir a incerteza sobre as causas de nossas sensações para reunir evidências de nossa própria existência. “Os modelos internos ou generativos do eu têm de incluir ‘onde estou’ e ‘como me movo’, e um bom exemplo dessa inferência ativa é mover-se fisicamente para gerar evidências que confirmem a hipótese de que ‘eu estou aqui’ e ‘eu fiz isso’, como demonstra a equipe de Lanillos”, aponta.

O projeto Selfception é inspirado em teorias sensório-motoras de psicologia e neurociência e se baseia na ideia de que o desenvolvimento das capacidades cognitivas passa primeiro pela aprendizagem de nosso corpo

Lanillos, doutor em Inteligência Artificial pela Universidade Complutense de Madri (UCM), criou seu projeto graças a uma bolsa Marie Curie, destinada a fomentar a formação e o desenvolvimento de pesquisadores de destaque no campo da inovação. Ele o levou a cabo na Universidade de Munique (Alemanha) e provou suas teorias na Pal Robotics, uma empresa de ponta em tecnologia de androides bípedes com sede em Barcelona.

Essa empresa foi a encarregada de criar o primeiro humanoide bípede autônomo da Europa (que era capaz até de jogar xadrez). Francisco Ferro, seu fundador, fundou a Pal Robotics para que “a ciência e a tecnologia melhorem a vida das pessoas”, assinala. Ela trabalha com robôs que servem à indústria, são usados em pesquisas de neurociência e até auxiliam idosos em casa. A empresa está programando atualmente o Talos, um robô de 1,85 metro que poderia ajudar em tarefas de fabricação de aviões que um homem não pode realizar durante muitas horas por ser um trabalho árduo. Ele será integrado à equipe de trabalho da Airbus quando estiver pronto.

Vários estudos nos últimos anos analisaram se os robôs podem se reconhecer no espelho. Nico, o robô criado pela equipe de Brian Scassellati no Massachusetts Institute of Technology (MIT), olhou-se no espelho em 2007. A diferença é que Scassellati só usou a variável relacionada ao movimento (o robô se reconhecia porque se movia). Lanillos, por sua vez, conseguiu que o autômato se identifique por duas variáveis: o movimento e a visão. “O robô está programado para perceber que se levantar um braço, a extremidade vai aparecer em determinada posição, e prever esse movimento”, explica Lanillos. Já não se trata apenas de que o androide se mova, mas que faça isso com coerência em relação ao que espera ver, e que ocorram mudanças em sua visão.

O cientista espanhol está convencido de que este é um primeiro passo para que o robô possa se relacionar com o ambiente e tomar decisões. Pensemos em um carro autônomo. O veículo gera uma ação na estrada que traz uma consequência para os passageiros. Se os androides anteciparem o que pode ocorrer, colocarão a segurança dos viajantes em primeiro plano e decidirão se a melhor opção é girar o volante para um lado ou para o outro. O passo seguinte será que o autômato se reconheça por mover todo seu corpo, não só o braço. “Não pode existir um robô que interaja com humanos sem saber a todo momento onde está seu corpo”, conclui Lanillos.

Arquivado Em: