Tribuna
i

Por que a falta de diversidade é um obstáculo à inteligência artificial

Uma forma de minimizar os riscos da IA é aumentar a diversidade das equipes envolvidas em seu desenvolvimento

Estudantes em uma escola de programação em Paris.
Estudantes em uma escola de programação em Paris.ERIC PIERMONT (AFP)

Os sistemas de Inteligência Artificial (IA) são cada vez melhores e derrotam campeões do mundo em jogos de tabuleiro como Go, identificam tumores em testes médicos melhor do que os radiologistas humanos e aumentam a eficácia dos centros de dados famintos por eletricidade. Alguns economistas  comparam o potencial transformador da IA com o da máquina a vapor, da eletricidade e do transistor.

MAIS INFORMAÇÕES

Os sistemas de IA atuais, porém, estão longe de serem perfeitos. Tendem a refletir os preconceitos dos dados utilizados para treiná-los e a se deteriorar diante de situações inesperadas. Também podem ser enganados, como vimos no caso das controvérsias que cercam a informação falsa nas redes sociais, os conteúdos violentos publicados no YouTube e o famoso caso do Tay, o chatbot da Microsoft, que foi manipulado para fazer declarações sexistas em questão de horas.

Queremos realmente transformar essas frágeis tecnologias propensas aos preconceitos na pedra angular da economia do amanhã?

Minimizar o risco

Uma forma de minimizar os riscos da IA é aumentar a diversidade das equipes envolvidas em seu desenvolvimento. Como indica pesquisa sobre tomada de decisões coletiva e criatividade, os grupos que são cognitivamente mais diversos tendem a tomar melhores decisões. Infelizmente, esse não é o caso da comunidade que atualmente desenvolve sistemas de IA. E, mesmo não sendo a única, a falta de diversidade de gênero é uma dimensão importante.

Uma análise publicada nesse ano pelo Al Now Institute revelou que menos de 20% dos pesquisadores que solicitam participar em prestigiosas conferências sobre IA são mulheres, e que essas representam somente um quarto dos estudantes universitários de IA em Stanford e na Universidade da Califórnia, em Berkeley.

Os autores afirmam que essa falta de diversidade de gênero causa falhas da IA que afetam unicamente as mulheres, como um sistema de contratação da Amazon que discriminava os candidatos com nomes femininos.

Nosso recente relatório Diversidade de Gênero na Pesquisa sobre IA inclui uma análise de big data de 1,5 milhão de trabalhos no arXiv, um site de pré-publicações que a comunidade de IA utiliza frequentemente para divulgar seu trabalho.

Analisamos o texto de resumos para determinar quais aplicam técnicas de IA e deduzimos o gênero dos autores a partir de seus nomes para estudarmos os níveis de diversidade e sua evolução no tempo. Também comparamos a situação em diversos campos de pesquisa e países, e as diferenças na linguagem entre os trabalhos com coautores femininos e os trabalhos com autores somente masculinos.

Nossa análise confirma a ideia de que há uma crise de diversidade de gênero na pesquisa sobre IA. Somente 13,8% dos autores de IA no arXiv são mulheres e, em termos relativos, a proporção de trabalhos de IA dos quais pelo menos uma mulher é coautora não melhorou desde a década de noventa.

Há diferenças significativas entre países e campos de pesquisa. Encontramos uma maior representação feminina na pesquisa sobre IA na Holanda, Noruega e Dinamarca, e uma representação menor no Japão e em Singapura. Também descobrimos que é mais provável que as mulheres que trabalham em Física, Educação, Biologia e aspectos sociais da informática publiquem trabalhos em comparação com as que atuam em informática e matemática.

Além de medir a diversidade de gênero dos pesquisadores de IA, também exploramos as diferenças semânticas entre trabalhos de pesquisa com e sem participação feminina. Provamos a hipótese segundo a qual as equipes de pesquisa com mais diversidade de gênero tendem a aumentar a variedade de problemas e temas levados a sério na pesquisa sobre IA, o que faz com que seus resultados sejam potencialmente mais inclusivos.

Para fazê-lo, medimos a “assinatura semântica” de cada trabalho utilizando uma técnica de aprendizagem das máquinas chamada word embeddings (mapeamento de palavras) e comparamos as assinaturas dos trabalhos nos quais pelo menos um autor era mulher com as de trabalhos sem nenhuma autora.

Essa análise, focada no campo de Aprendizagem das Máquinas e os Aspectos Sociais da Informática no Reino Unido, mostrou diferenças significativas entre os grupos. Concretamente, descobrimos que os trabalhos com pelo menos uma coautora tendem a ser mais práticos e sensibilizados socialmente, e neles termos como “justiça” “mobilidade humana”, “mental”, “gênero” e “personalidade” desempenham papel fundamental. A diferença entre os dois grupos é coerente com a ideia de que a diversidade cognitiva tem um impacto na pesquisa produzida e indica que dá lugar a um maior compromisso com as questões sociais.

Como resolver

Então, como se explica essa persistente lacuna de gênero na IA e o que podemos fazer sobre isso?

A pesquisa mostra que a falta de diversidade de gênero entre os trabalhadores da ciência, tecnologia, engenharia e matemática (STEM, na sigla em inglês) não é produto de um só fator: os estereótipos e a discriminação de gênero, a falta de modelos e mentores, a atenção insuficiente ao equilíbrio entre trabalho e vida privada e os ambientes de trabalho “tóxicos” da indústria tecnológica se unem para criar uma tempestade perfeita contra a inclusão de gênero.

Acabar com a lacuna de gênero na pesquisa sobre IA não tem solução fácil. Mudanças em todo o sistema para criar espaços seguros e inclusivos que apoiem e impulsionem pesquisadores pertencentes a grupos com pouca representação poderiam fazer parte dessa solução. Além de uma mudança nas atitudes e nas culturas nos campos da pesquisa e da indústria e uma melhoria comunicação do potencial transformador da IA em numerosas áreas.

As intervenções política —como o investimento estatal de 13,5 milhões de libras (67 milhões de reais) para fomentar a diversidade de papéis emk IA através de novos cursos universitários— talvez melhorem uma pouco a situação, mas são necessárias intervenções em grande escala para criar melhores conexões entre as artes, as humanidades e a IA. também para mudar a imagem de quem pode trabalhar em IA.

Ainda que não exista somente uma razão para que as meninas deixem de maneira desproporcional de se matricular em cursos como Ciências, Tecnologia, Engenharia e Matemática à medida que avançam em seus estudo, há provas de que fatores como os estereótipos generalizados de gênero e um entorno educacional que afeta mais a confiança das meninas do que a dos meninos são parte do problema. Também devemos ressaltar os modelos utilizados pela IA para propiciar uma mudança para melhor.

Uma intervenção tangível para abordar esses problemas é o Prêmio Longitude Explorer, que encoraja os alunos do ensino médio a utilizar a IA para resolver desafios sociais e trabalhar com modelos de IA. Queremos que os jovens, especialmente as meninas, percebam o potencial da IA para o bem e o seu papel para impulsionar a mudança.

Reforçando a preparação e a confiança das jovens, podemos mudar a proporção de pessoas que estudam e trabalham em IA e ajudar a abordar os possíveis preconceitos da inteligência artificial.

Juan Mateos-Garcia é diretor de inovação e Joysy John é diretora de educação no Nesta

Esse artigo foi publicado originalmente em The Conversation. Leia o original.

Traducción de NewsClips

Arquivado Em: