Um exército para rastrear o ódio nas redes

As grandes plataformas digitais contratam equipes de milhares de funcionários para detectar e apagar conteúdos racistas, xenófobos, sexistas ou terroristas da Internet

Equipe de trabalhadores que vigiam os conteúdos do Facebook no centro de controle de Barcelona.
Equipe de trabalhadores que vigiam os conteúdos do Facebook no centro de controle de Barcelona.Facebook

O discurso do ódio se espalha a toda velocidade pela Internet. Em sua tentativa de mitigar esse fenômeno, corrosivo para a democracia, as grandes empresas de tecnologia se comprometeram em 2016 a apagar em menos de 24 horas as mensagens que incitem crime de racismo, xenofobia ou sexismo. Para realizar essa tarefa, contrataram um exército de vigilantes que filtram uma avalanche de conteúdos que circulam pela Internet e pelas redes sociais. Sua tarefa é apagar tudo que fomente o ódio em qualquer um de seus aspectos: etnia, religião ou nacionalidade.

As imagens da transmissão, por meio do Facebook, do atentado em duas mesquitas na Nova Zelândia, que deixou 50 mortos, circularam pela Internet até a polícia dar o alerta. O Facebook garante que apagou rapidamente o vídeo e também as contas do atirador. No entanto, as cópias já haviam se multiplicado. Seus filtros de inteligência artificial falharam. O conteúdo foi reproduzido 4.000 vezes até que a empresa pudesse ter acesso ao link com a gravação. Em 24 horas, 1,2 milhão de vídeos foram eliminados. YouTube, Twitter, Instagram e Reddit retiraram também as imagens à medida que iam aparecendo nessas plataformas.

MAIS INFORMAÇÕES

Quatro gigantes da tecnologia − Facebook, Twitter, YouTube e Microsoft − assinaram em 2016 um código de conduta com a Comissão Europeia para combater a incitação ao ódio na Internet. A esse documento aderiram outras empresas de menor tamanho, como Dailymotion e Snapchat. Essas empresas afirmam que reforçaram seus sistemas de segurança e vigilância para erradicar conteúdos maliciosos. Utilizam três métodos: as denúncias dos usuários, os programas de inteligência artificial e os vigilantes humanos.

O Google explica que “os padrões daquilo que constitui um discurso de ódio variam de um país para outro, assim como a linguagem e o jargão que utilizam”, e afirma que melhorou sua “velocidade e precisão”. Entre julho e setembro do ano passado, o YouTube eliminou mais de 7 milhões de vídeos por violar suas normas e bloqueou 224 milhões de comentários. Nesse período, o Facebook apagou 2,5 milhões de publicações que violavam “as normas sobre incitação ao ódio”. Dessas, 53% foram detectadas “proativamente” através de seus próprios sistemas, antes que fosse recebido um aviso externo.

A empresa criada por Mark Zuckerberg contratou especialistas em áreas relacionadas com menores de idade, discurso de ódio e terrorismo. Suas equipes vigiam em 80 idiomas diferentes. É um trabalho duro, como apontou a comissária de Justiça da União Europeia, Vera Jourová, depois de visitar, recentemente, um centro de controle de conteúdos em Dublin: “Posso dizer que eles têm um dos empregos menos agradáveis do mundo. São heróis da era digital”.

No Facebook, cerca de 15.000 pessoas trabalham em missões de controle. Um dos centros está em Barcelona e opera em colaboração com o Competence Call Center (CCC). Em novembro, já contava com 800 funcionários para “revisar todos os tipos de conteúdos problemáticos e abusivos”.

“É impossível evitar em 100% que essas mensagens estejam presentes. Mas é possível detectá-las cedo, limitar sua viralidade e dificultar muito sua busca na Internet”, afirma Javier Lesaca, doutor em História e pesquisador visitante da Columbia University. Ele considera que “as novas plataformas de comunicação digital deveriam se conscientizar de que já não são simples empresas de tecnologia”, porque “se transformaram em elementos estruturantes da opinião pública da sociedade e devem assumir a responsabilidade que esse novo papel implica”.

Inteligência artificial não basta; é necessário que pessoas vigiem os conteúdos

As plataformas sabem que a UE está vigilante. “Não investem por conta própria. Atuam pela pressão dos cidadãos e das instituições. São forçadas a adotar medidas se querem manter a galinha dos ovos de ouro”, afirma Ferran Lalueza, professor do departamento de Ciências da Informação e da Comunicação da Universidade Aberta da Catalunha. As plataformas atuam também porque “sabem que correm o risco de levar multas milionárias”, ressalta Lalueza, acrescentando que os mecanismos para combater o discurso de ódio são insuficientes: “Esses conteúdos continuam se espalhando pelas redes sociais”.

Na hora de executar essas tarefas, o Facebook se baseia em ferramentas de inteligência artificial, mas a vigilância humana é fundamental. Quem se dedica a inundar a Rede de mensagens de ódio encontra formas de driblar os algoritmos de detecção. Por isso, as empresas confiam cada vez mais essas tarefas a controladores de carne e osso. O YouTube quer ter 10.000 pessoas para examinar os vídeos hospedados em seus domínios.

Todas essas iniciativas são um avanço, mas “ainda há muito a melhorar”, afirma Lalueza. Os sistemas que utilizam a inteligência artificial são um caminho efetivo, mas em uma multinacional como o Facebook, com 2,3 bilhões de usuários ativos, “qualquer tentativa de controle humano está condenada ao fracasso ou a não ter agilidade suficiente para que as medidas tenham efeito”.

As plataformas preferem a autorregulação, procurando manter os reguladores externos longe. Diante de quem considera que eliminar contidos é uma espécie de censura, Lalueza sustenta que a linha vermelha não está na liberdade de expressão, mas na liberdade de agressão. “Nesse ponto, as autoridades não deveriam hesitar. O discurso de ódio não pode ser protegido pela liberdade de expressão. Não deve ter proteção porque mina o Estado de direito.”

Para a Comissão Europeia, o código de conduta é “um passo importante”, mas Lesaca considera que as regulamentações legais deveriam ser atualizadas para endurecer as penas por publicação de mensagens violentas ou de incitação ao ódio no ambiente digital e exigir das plataformas muito mais rapidez para detectar e eliminar esses conteúdos. E ele alerta: “Os grupos terroristas, violentos e extremistas estão migrando cada vez mais seus conteúdos para plataformas menores, mas igualmente eficazes para viralizar e socializar esses conteúdos”.

INICIATIVAS PARA SENSIBILIZAR OS ADOLESCENTES

Dizer a palavra “ódio” não é suficiente para apagar uma mensagem na Internet ou fazer um vídeo desaparecer e uma rede social. Para que a publicação seja considerada perigosa, os textos ou as imagens devem estar vir acompanhados de uma ameaça, de uma incitação à violência ou de alguma referência a raça, religião ou condição sexual.

Por meio da iniciativa Somos Más ("somos mais"), o Google desenvolveu um programa para prevenir e sensibilizar os usuários da Internet em relação ao discurso de ódio e à radicalização violenta. O projeto é dirigido a 30.000 adolescentes de 250 escolas espanholas. "Ele tem três objetivos: tornar a Internet em um espaço livre de ódio, prevenir os jovens contra o radicalismo e sensibilizar os adolescentes através de criadores do YouTube", aponta o Google.

Na Europa, as empresas vinculadas às tecnologias da informação eliminaram no ano passado 70% das mensagens com incitação ilegal ao ódio notificadas por ONGs ou por órgãos públicos. E na grande maioria dos casos (81%) essas mensagens foram removidas em menos de 24 horas.

O Facebook usou filtros fora do ambiente europeu. A ONG Business for Social Responsability analisou o impacto da rede social em Mianmar (antiga Birmânia) e detectou um preocupante aumento das mensagens de ódio contra os rohingyas, a minoria muçulmana. A empresa admitiu que não tinha feito sua lição de casa na hora de frear a expansão dessas mensagens e contratou cerca de cem funcionários que falam birmanês para identificar as mensagens xenófobas e eliminá-las.

Arquivado Em: