Seleccione Edição
Login
ENTREVISTA

Nick Clegg: “O Facebook não pode ser a polícia da Internet”

Ele lutou contra o Brexit e perdeu. Trocou a Câmara dos Comuns pela Califórnia para se encarregar de contar as bondades do Facebook e assessorar em uma futura regulamentação do grupo presidido por Mark Zuckerberg, com 2,7 bilhões de usuários. Admite erros passados, mas defende as fórmulas utilizadas pela rede social para nos dizer o que ver e o que ler na plataforma

Nick Clegg nos escritórios do Facebook Espanha.
Nick Clegg nos escritórios do Facebook Espanha.

Após muitos anos usando gravata, Nick Clegg (Chalfont St. Giles, Inglaterra, 52 anos) se mostra confortável de camisa. Após 10 meses como vice-presidente de assuntos globais e comunicação do Facebook, Clegg não parece sentir saudades da Câmara dos Comuns, do Parlamento Europeu e da vice-presidência do Reino Unido. Mas ainda lhe resta um pouco do senso de humor inglês, ainda que se refira pouco a sua vida anterior. Fala com efusividade de avanços e aplicativos de celulares. A empresa de tecnologia aproveita suas férias na Espanha, onde nasceu sua esposa, para programar uma pequena maratona. Ele se reúne com políticos, assinantes e veículos de comunicação com visível cansaço no rosto, mas não na velocidade em que responde perguntas, comentários e fotos. Usa um relógio que não olha e somente no final da entrevista coloca a mão no bolso para pegar um celular, o aparelho que tornou grande a empresa que o contratou. Também não bebe água. Seja por sede, seja para encontrar silêncios para preparar sua resposta. Deixa claro seu afã em ser cordial e próximo, longe de parecer o executivo de uma empresa que amealhou lucros de 20 bilhões de euros (89 bilhões de reais) em 2018 e que recebeu multas milionárias, principalmente por não proteger os dados pessoais de seus usuários. A última, em julho, de 5 bilhões de dólares (20 bilhões de reais) nos Estados Unidos por violar essa privacidade. Tem claro seu papel. Coube a ele a defesa pública das bondades do negócio de Mark Zuckerberg. Para isso, utiliza uma argúcia bem política: representar a aceitação dos erros e louvar as melhoras futuras.

O que faz um sir em uma empresa de nerds na Califórnia? Há um ano comecei a falar com Mark Zuckerberg e Sheryl Sandberg [número dois da empresa] e me disseram que procuravam alguém para ajudá-los a responder perguntas muito complexas e importantes sobre questões éticas, culturais e políticas sobre o impacto dessa tecnologia na sociedade. É um impacto muito diverso, nas eleições, na vida social, na vida comercial [uma em cada três empresas espanholas utiliza o Facebook e mais de 50% delas dizem que ofereceram emprego a alguém após ver seu perfil no Facebook]. É uma maneira de comunicar nova e grátis ao usuário. 2,7 bilhões de pessoas utilizam o Facebook, Instagram, Messenger e WhatsApp, e após a Cambridge Analytica [o escândalo pela venda de dados pessoais] e das eleições dos Estados Unidos [a possível influência do Facebook no resultado que levou Trump à presidência] existiam muitas perguntas. Quando me ofereceram a oportunidade de trabalhar nessas questões, achei fascinante. É muito importante porque as regras que introduzirmos juntos, a sociedade e o mundo tecnológico, servirão de parâmetros durante muitos anos. Poder desempenhar esse papel na evolução tecnológica é uma oportunidade e estou muito contente de participar.

O objetivo da empresa para o senhor, então, é ajudar nessa regulamentação? As pessoas se esquecem de que o Facebook é muito grande, mas muito jovem. Roger Federer foi o número um no tênis pela primeira vez dois dias antes do Facebook começar. A vida de Federer é mais longa do que a do Facebook. Nesse tempo, o Facebook cresceu rápido e é muito popular. Quando olho sua evolução, penso que é uma empresa muito jovem com uma tecnologia muito poderosa. Não é uma surpresa estarmos lidando com perguntas que não eram esperadas. Ninguém poderia imaginar que os russos tentariam interferir nas eleições dos Estados Unidos, e que um acadêmico da Cambridge Analytica venderia dados de usuários. Não é uma surpresa existir ceticismo. Cometemos erros. A maneira de gerir dados no passado não foi muito rígida e cuidadosa, mas agora estou convencido de que a empresa está entrando em um novo capítulo, não somente de crescer, mas de assumir a responsabilidade profunda que acompanha o sucesso.

É difícil defender plataformas que deixaram os usuários sem serviço três vezes em quatro meses? O objetivo é reduzir ao máximo os erros e as quedas, mas não devemos acreditar que podemos eliminar os erros e os vazamentos de dados. Cada vez que há uma interrupção dos serviços precisamos saber o motivo, resolver o problema e fazer o possível para evitar que se repita. Mas não posso prometer que iremos eliminar todos os problemas e erros. Nosso compromisso é oferecer aos 2,7 bilhões de pessoas que utilizam nossos produtos e serviços a melhor experiência possível. Às vezes, temos interrupções temporárias do serviço e trabalhamos rápido para identificar o problema, solucioná-lo e restaurá-lo.

Todos os dias são enviadas 100 bilhões de mensagem por nossas redes. A maioria é inocente. Não é preciso focar tanto nos problemas

Como convenceria alguém de que o Facebook não tem muito poder? Tem muitos usuários, mas não é um poder como o de um Governo. É um serviço que permite às pessoas dizer o que querem, quando querem e da forma que quiserem. É muito importante que grandes empresas como o Facebook percebam suas decisões e que quando cometermos erros, paguemos multas e os corrijamos. O poder dessa tecnologia é o que dá às pessoas, outorgando-as a capacidade de se comunicar. Qual número é bom para que não seja poder demais? Não posso dizer que 2,7 bilhões de pessoas seja muito poder. É verdade que é uma empresa global, mas, por exemplo, não existe na China. Não sei se existe um número mágico que define se você tem muito poder ou não. O que sei é que esse sucesso empresarial deve vir acompanhado de responsabilidade e precisa demonstrar transparência. E se há erros, devem ser solucionados.

O senhor acha, então, que não é oportuno dividir a empresa, como disseram alguns dirigentes políticos? É mais importante regulamentar a empresa do que dividi-la. Imagine que tiramos o WhatsApp do grupo. Isso não mudaria os problemas de privacidade, de extremismo, de intervenção nas eleições... Agora podemos utilizar os dados que temos do Facebook para identificar criminosos que estão utilizando o WhatsApp. Entendo que as pessoas querem uma solução rápida. Entendo que a solução de dividir é sedutora, mas não é real. A Internet é muito jovem. A história das revoluções tecnológicas tem sempre a mesma evolução: primeiro vem a euforia, depois, o medo e o pessimismo, a paranoia. Estamos nessa fase e o que precisamos fazer é chegar ao equilíbrio de reconhecer que há uma parte boa e outra que não é, e que precisamos desempenhar um papel colaborativo para encontrar soluções e para comemorar o positivo. Todos os dias são enviadas 100 bilhões de mensagens através de nossas redes. A maioria é de mensagens inocentes, “vou comprar bananas, olha a foto do meu cachorro, quando vamos jogar futebol...”. Não precisamos focar tanto nos problemas e esquecer que a maioria utiliza os aplicativos para coisas muito positivas. Regulamentar o Facebook é uma solução mais real do que dividi-lo.

O senhor é partidário de que os Governos legislem sobre serviços como os do Facebook, WhatsApp e Instagram, mas é possível uma legislação universal? É sempre melhor tomar medidas para uma indústria tão fluida. Para os meios financeiros, os Governos reagiram juntos. Mas isso nem sempre é possível. Às vezes é importante que um Governo e um grupo de Governos comecem. Penso realmente que a União Europeia tem um papel claro e importante. Não participamos da guerra tecnológica entre a China e os EUA. Não temos a presença comercial que eles têm, mas a Europa tem a capacidade de introduzir as regras que servirão como parâmetros, limites e fronteiras.

Em 2018 a Comissão Europeia levou adiante uma auto-regulamentação às plataformas para evitar ingerências nas eleições, mas, uma vez finalizadas as votações, os relatórios deixaram de ser apresentados apesar do acordo continuar vigente. Todos os dias bloqueamos um milhão de contas falsas. A dimensão do problema é enorme. A maioria é de bots e temos sistemas sofisticados para bloquear conteúdo que não é aceitável, como o conteúdo terrorista. 99% do que detectamos é feito com inteligência artificial antes até de que alguém descubra. Desempenhamos um papel extremamente ativo. Nas eleições europeias estivemos à frente das regras. Tive um curioso debate com o presidente do Parlamento Europeu, Antonio Tajani, que conheço dos meus dias de Bruxelas, porque se queixaram de que implantamos nossas próprias regras, muito rígidas, para vigiar a publicidade política em nossas plataformas. Eles se queixaram de que estávamos trabalhando com todas as autoridades eleitorais nacionais e lhe expliquei que o motivo era que não há uma autoridade europeia. E se não há uma infraestrutura institucional e legal europeia, e nós queremos proteger as eleições, precisávamos trabalhar com as instituições que realmente existem.

Nós temos regras de comunidade e o algoritmo incorpora nossa ideia de que certos conteúdos devem ser bloqueados e escondidos

O senhor acha, então, que as regras do Facebook são suficientes ou, pelo menos, melhores do que as recomendadas pela Europa? Bom, para mim é um pouco estranho me queixar da classe política, de onde venho... Como posso dizer diplomaticamente? Há uma distância entre a retórica de ter leis e regras eleitorais e a realidade. Esse foi um bom caso em que o Facebook mostrou que tinha suas regras. Seria muito melhor, no futuro, que nós precisássemos seguir as regras que os Governos adotaram porque nós somos uma empresa privada e eles têm mais legitimidade.

O Facebook está fazendo todo o possível na luta contra o conteúdo violento? Estamos fazendo muito mais do que antes. Temos 30.000 pessoas que nos ajudam na vigilância do conteúdo, além da inteligência artificial. Estamos melhorando, mas sempre há mais por fazer.

E contra as notícias falsas? Trabalhamos com organizações que vigiam se algo é verdade ou não, se há exageros e datas falsas. Mas não podemos ser uma polícia da Internet dizendo quais coisas são aceitáveis e as que são verdade absoluta. A liberdade de dizer bobagens é a liberdade em uma sociedade aberta. Podemos alertar sobre um conteúdo. Dizer: “Cuidado, esse conteúdo pode ser falso!”, e outra organização, independente do Facebook, identificará o problema e mostrará as alternativas que o usuário pode explorar para ter uma perspectiva mais objetiva.

Nick Clegg: “O Facebook não pode ser a polícia da Internet”

Acha que o Facebook gera confiança suficiente para colocar em andamento uma criptomoeda? Não é uma moeda do Facebook e um Zuckerberg dólar. O Facebook não controlará essa moeda, a Libra, o que esperamos é fazer parte de uma associação de mais de 100 empresas que lançará uma moeda se os Governos e os reguladores se convencerem de que podemos fazê-lo. O Facebook será somente uma voz e um voto. Mas há um problema: há muita gente no mundo, especialmente nos países pobres, que não tem acesso a um banco e queremos lançar a ideia de que podem utilizar seus telefones para receber e fazer pagamentos. Beneficiaria muitas pessoas que agora estão fora do sistema bancário. Entendo que as pessoas tenham dúvidas pela maneira como guardamos os dados pessoais, mas veremos primeiro se é possível lançá-la e se podemos ajudar e dar uma solução a esse 1,7 bilhão de pessoas que não têm capacidade de utilizar o banco para pagar. Se acham que essa criptomoeda é uma solução ao fracasso do mercado bancário, espero que possamos demonstrar que merecemos a confiança.

Mas os reguladores e supervisores de mercados já expressaram suas dúvidas sobre a segurança e a regulamentação necessária a essa divisa que vocês pensavam colocar em circulação em 2020. Isso significa que a ideia será congelada? O importante é entender que nós não podemos lançar a Libra sem permissão dos reguladores. Se decidirem que não darão permissão, não ocorrerá.

E renunciarão completamente, não tentarão outra coisa? Se os planos forem adiante, teremos uma associação regulamentada em Genebra. Esperamos que a associação comece com uma centena de empresas, e o Facebook será uma delas. Existe um fracasso total no mercado bancário. 1,7 bilhão de pessoas não têm direito a utilizar um banco e possuem telefones. Não somente nos países pobres. Nos EUA também há 12 milhões de pessoas que não podem ter uma conta bancária e o que ocorre é que precisam pedir dinheiro a agiotas com juros de 400%. Nós apresentaremos a ideia com as outras empresas. Queremos que tenha mais estabilidade do que as criptomoedas do passado e para isso a conectaremos a bolsas de reserva. Se os reguladores não quiserem avançar, continuará existindo uma injustiça.

Não tentariam um sistema de pagamento tipo o PayPal? Um sistema de pagamento é outra coisa. Esperamos que no futuro o WhatsApp possa ser utilizado para pagar, mas isso é algo muito convencional porque utiliza sua infraestrutura do banco. A Libra seria uma solução a um problema maior.

O senhor diz que não há vips no Facebook, não há acesso preferencial, mas como podemos saber se utilizam um algoritmo que é absolutamente secreto e não sabemos como tratam nosso vizinho? É possível saber. Pode saber por que está vendo e como seu ranking está.... mas não há um grande mistério. O algoritmo não é um animal que decide o que cada pessoa vê e que está em uma caixa no escritório de Mark Zuckerberg.

Claro, não é um animal preso porque, de fato, muda. Quando você entra no Facebook durante alguns minutos, o que vê primeiro é muito importante porque a maioria das pessoas só vê as primeiras 20 postagens. O algoritmo só nos diz em qual ordem as vemos, a prioridade. É maravilhoso porque assim cada canal de notícias é diferente, é único, é particular para cada um. Os sinais mais importantes que determinam essa ordem são seus amigos, quais são os grupos em que participa e quais são as mensagens que olha. O algoritmo, simplesmente, reage ao que você faz, não impõe uma ordem que não reflete o que você gosta. O algoritmo é como um eco das decisões que cada um toma.

Nick Clegg, entre Mark Zuckerberg e a diretora de operações de Facebook, Sheryl Sandberg.
Nick Clegg, entre Mark Zuckerberg e a diretora de operações de Facebook, Sheryl Sandberg.

Se é um eco de minhas decisões, por que o algoritmo e seus programadores foram acusados de ter viés? Todos nós somos machistas e racistas? Nós temos regras de comunidade e o algoritmo incorpora nossa ideia de que certos conteúdos devem ser bloqueados e escondidos. Todos os dias ocorrem casos em que, mesmo que a pessoa queira ler sobre um assunto, reduzimos a capacidade de acesso a eles.

Então também é como nossa consciência? Não é que seja consciência porque as razões são públicas. Somos contra a violência, contra a desinformação, contra os extremismos, contra os ódios. Está tudo escrito.

É possível um Facebook sem notícias de jornais tradicionais? O conteúdo total de notícias é de somente 4% a 5%. Sei que políticos e jornalistas pensam que os usuários estão consumindo notícias o dia inteiro, mas não é assim, é uma minoria. Do ponto de vista da quantidade, não é a razão principal pela qual as pessoas usam o Facebook. Mas isso não quer dizer que nós pensamos que não é uma parte importante. Por isso estamos explorando a possibilidade de ter um espaço para agrupar as notícias em um mesmo lugar para que os que querem consumir esses conteúdos possam acessá-los.

MAIS INFORMAÇÕES