_
_
_
_
_

Facebook tolerou discursos de ódio em países em guerra em prol de seu crescimento

Revelação jornalística de relatórios internos sobre a insuficiência da moderação humana e automática de milhões de publicações provoca a crise de reputação mais grave da empresa

María Antonia Sánchez-Vallejo
Frances Haugen na segunda-feira em Londres, durante depoimento a uma comissão do Parlamento britânico.
Frances Haugen na segunda-feira em Londres, durante depoimento a uma comissão do Parlamento britânico.DPA vía Europa Press (Europa Press)

O Facebook se tornou um aprendiz de feiticeiro cujo sucesso fugiu de seu controle. A revelação de documentos internos da rede social segundo os quais seus executivos permitiram, por ação ou omissão, a publicação de desinformação e conteúdo polêmico se voltou como um bumerangue contra a empresa. Essas informações provocaram a pior crise de reputação de sua história, que já incluía episódios obscuros sobre a privacidade dos dados, como o caso da Cambridge Analytica.

Assim como as empresas de tabaco em outra época, ou como a farmacêutica que fabricou o medicamento responsável pela grave crise de opioides nos EUA —todas negando a possibilidade de vício—, o Facebook enfrenta o grande momento da verdade: depois da idílica comunidade global que pretendeu criar, ele contribuiu para prejudicar a convivência por ignorar conteúdo potencialmente violento, como discursos de ódio em países onde essas mensagens podem ter graves consequências, pelo que indicam os documentos revelados.

A constatação da negligência não se aplica apenas aos EUA de Donald Trump —com o auge das fake news graças às redes sociais, e consequências como o ataque ao Capitólio em 6 de janeiro— ou à porcentagem ainda pequena de vacinação contra a covid-19 por culpa de teorias não científicas que o Facebook ajudou a fomentar. A falta de controle da empresa sobre seus conteúdos também causou estragos na Índia, ao potencializar a política de nova hinduização do país por parte do nacionalista Narendra Modi. E em Mianmar, atiçando a perseguição contra a comunidade rohingya. E também no Afeganistão, no Iêmen, na Etiópia.

Isso se depreende do último conjunto de documentos internos vazados para um consórcio de veículos de comunicação internacionais, os chamados Facebook Papers. Uma questão central é determinar se o próprio funcionamento da plataforma deu origem ao problema; ou seja, se as ferramentas que tornaram o Facebook aquilo que ele é hoje —os botões de curtir e de compartilhar conteúdo, tão intuitivos— multiplicaram exponencialmente o risco na ausência de uma moderação adequada das publicações.

As revelações, baseadas em entrevistas com ex-funcionários e relatórios internos, mostram como a expansão global da empresa —presente em mais de 190 países e mais de 160 idiomas, com mais de 2,8 bilhões de usuários por mês— negligenciou o controle do conteúdo por causa, em muitos casos, de um número insuficiente de moderadores com conhecimento adequado dos idiomas e contextos locais para identificar publicações potencialmente perigosas —ou no mínimo duvidosas— em muitos países em desenvolvimento. Em 2019, além disso, a empresa reduziu seu orçamento para a contratação de moderadores, em prol das máquinas.

Os vazamentos também revelam que os sistemas de inteligência artificial (IA) usados pelo Facebook para evitar esse tipo de conteúdo são, muitas vezes, ineficazes, assim como as ferramentas para o possível aviso de um usuário. A descrição mostra um Facebook hipoteticamente blindado contra as denúncias, ao que se soma, além disso, a carta branca concedida a cerca de cinco milhões de perfis, considerados usuários VIP, para os quais simplesmente não existiriam regras de moderação, como adiantou no mês passado o The Wall Street Journal. Entre os usuários importantes estariam conhecidos representantes da alt-right americana e do círculo mais próximo de Trump, como seu ex-estrategista Steve Bannon, assim como blogueiros e portais informativos em sua órbita.

A hipotética rédea solta dada pelo Facebook —quase sempre em favor de políticos e posicionamentos conservadores, como demonstram os casos dos EUA e da Índia— ganha um caráter mais perigoso em países onde o risco de instabilidade e violência é real. Em uma análise publicada no ano passado no fórum de discussão interno sobre os métodos para identificar excessos, um funcionário relatou “brechas significativas” especialmente em Mianmar —o papel do Facebook na propagação do discurso de ódio que impulsionou o genocídio rohingya foi demonstrado já 2018— e na Etiópia, onde uma de suas regiões, Tigray, vive um conflito civil cada vez mais sangrento. A triagem feita pelos algoritmos “classificadores”, que detectam conteúdo inadequado, revelou-se inútil no escrutínio de mensagens nos idiomas ou dialetos falados na antiga Birmânia e na Etiópia; neste caso, com abundantes ameaças de morte.

As brechas de segurança do Facebook se resumem em quatro: a incapacidade linguística de entender, e consequentemente de moderar, milhões de publicações de usuários em países de língua não inglesa; a incompreensão de seus próprios algoritmos; a inação na hora de intervir onde os programas de inteligência artificial não chegam (segundo um relatório de março, a empresa só adota medidas em 3% a 5% dos casos de discursos de ódio, e em 0,6% das publicações de conteúdo violento); e uma evidente negligência às vésperas do ataque ao Capitólio; na verdade, o Facebook desativou certas salvaguardas de emergência impostas para as eleições de novembro de 2020 nos EUA, e precisou reativar rapidamente algumas delas quando explodiu a violência em 6 de janeiro. A incapacidade de lidar com a atividade on-line das hordas trumpistas causou mal-estar no seio da empresa.

Os documentos vazados fazem parte da denúncia de Frances Haugen, ex-executiva do Facebook, gigante de tecnologia que superou mais rapidamente —em apenas 17 anos— a marca de um trilhão de dólares (5,58 trilhões de reais) em valor de mercado, segundo a Bloomberg. Haugen compareceu na segunda-feira a uma comissão do Parlamento britânico, duas semanas depois de prestar depoimento no Congresso dos EUA. Porta-vozes do Facebook tentaram minimizar o golpe para sua reputação dizendo, em um comunicado, que a empresa nunca colocou o lucro acima da segurança ou do bem-estar das pessoas. Pelo contrário, “investimos 13 bilhões [de dólares, 72,6 bilhões de reais] e temos mais de 40.000 funcionários dedicados apenas a uma coisa: garantir a segurança das pessoas no Facebook”.

O orçamento das grandes empresas de software, hardware e serviços de inteligência artificial pode chegar a 342 bilhões de dólares (1,9 trilhão de reais) neste ano, segundo a International Data Corp. Esses gastos em IA devem passar de 500 bilhões de dólares (2,79 trilhões de reais) em 2024, segundo a mesma fonte.

As denúncias de Haugen e de outros ex-funcionários do Facebook colocam esse gigante da tecnologia diante de seus demônios, depois de ter conseguido superar parcialmente uma ofensiva judicial por práticas monopolistas. Assim como, em outra época, as empresas de tabaco dos EUA e a farmacêutica responsável pela crise de opioides por suas campanhas agressivas de marketing —e pela falsa afirmação de que o fármaco não causava dependência—, o Facebook parece, segundo as informações vazadas, ter priorizado a monetização sem dotá-la de salvaguardas. Parece ter desprezado a segurança, até mesmo a integridade física de muitas pessoas, para ganhar dinheiro. Segundo o ex-diretor para Oriente Médio e Norte da África, os objetivos de crescimento global eram “coloniais”, no sentido de favorecer a qualquer custo a hegemonia e o domínio sobre milhões de súditos digitais. Mais de 90% dos usuários ativos do Facebook vivem fora dos EUA e Canadá.

Inscreva-se aqui para receber a newsletter diária do EL PAÍS Brasil: reportagens, análises, entrevistas exclusivas e as principais informações do dia no seu e-mail, de segunda a sexta. Inscreva-se também para receber nossa newsletter semanal aos sábados, com os destaques da cobertura na semana.

Mais informações

Arquivado Em

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_