Topo

Perdido com os Facebook Papers? Entenda as denúncias contra a rede social

Reuters
Imagem: Reuters

Rosália Vasconcelos

Colaboração para Tilt, em Recife

10/11/2021 04h00Atualizada em 10/11/2021 18h35

Desde o fim de outubro, o mundo tem visto uma avalanche de reportagens, veiculadas por um consórcio de 17 jornais norte-americanos e três brasileiros, sobre como a Meta (empresa que até recentemente se chamava Facebook, dona da rede social, do Instagram e do WhatsApp) lida com assuntos como desinformação, discurso de ódio, interferência política, saúde mental de jovens e crianças, entre outros.

Algumas publicações chegaram a dizer, com base em documentos internos vazados da empresa, que o seu fundador, Mark Zuckerberg, vem priorizando o lucro em detrimento da segurança das pessoas na rede — o que ele negou posteriormente. O caso foi apelidado de "Facebook Papers" (documentos do Facebook, em tradução livre).

Se você acabou se perdendo em meio a tantas denúncias e acusações contra o Facebook (atual Meta), confira a seguir algumas perguntas e respostas sobre o caso e um resumo com as principais polêmicas.

De onde saíram tantas acusações?

Milhares de documentos internos do Facebook foram vazados por uma ex-funcionária da empresa: Frances Haugen. Ela virou delatora após divulgá-los para a Comissão de Valores Mobiliários dos EUA (SEC, na sigla em inglês) e para a imprensa dos Estados Unidos.

O caso repercutiu tanto que Haugen prestou depoimento no Subcomitê de Comércio do Senado dos EUA para falar sobre os arquivos, que teve acesso durante o período que trabalhou na empresa.

O que os documentos revelam?

São vários os temas abordados pela imprensa que teve acesso aos arquivos. Confira a seguir as principais polêmicas e acusações contra o Facebook, com direito a um detalhamento maior de casos bem polêmicos.

1. Boa parte das reportagens cita exemplos que indicam a falta de investimento em moderação de conteúdos, o que favorece a disseminação de discursos de ódio e campanhas de desinformação.

2. Os algoritmos da rede social são mal compreendidos pelos próprios funcionários da empresa. O termo "caixa preta" chegou a ser usado como uma analogia para a falta de transparência de como a plataforma funciona.

3. A percepção de que Zuckerberg sabia desses problemas também foi noticiada.

4. A decisão do Facebook de deixar de agir em temas polêmicos (como a moderação de conteúdo) para não perder espaço em mercados lucrativos — que incluem governos autoritários — também foi destacada.

5. Erros no sistema automatizado de detecção de conteúdos violentos à época do massacre em duas mesquitas na Nova Zelândia levaram a empresa a melhorar a eficiência de seus algoritmos para que vídeos de atiradores matando pessoas não voltassem a viralizar na plataforma.

6. Um teste feito por uma funcionária mostrou que o Facebook é capaz de estimular o sentimento de ódio e radicalizar pessoas.

7. O Instagram teria cogitado exibir mais memes e imagens de natureza no lugar de posts sobre corpos no feed da rede social. A ideia surgiu depois que pesquisadores do Facebook descobriram que a ênfase da rede social em cenas corporais causava prejuízos à autoimagem e saúde mental de parte dos usuários.

8. O emoji de raiva no Facebook pode ter facilitado propagação de fake news.

9. A empresa pode ter censurado opositores de governos:

Um dos casos mais emblemáticos a retratar esse tipo de denúncia aconteceu no Vietnã, ano passado, quando o governo vietnamita teria pressionado a empresa de Zuckerberg a censurar postagens dos dissidentes do regime. O Facebook chegou a bloquear mais de três mil postagens contrárias ao regime vigente só em 2020.

O Vietnã é um dos seus mercados mais lucrativos na Ásia. Somente em 2018, a região foi responsável por gerar um faturado de US$ 1 bilhão (R$ 5,5 bilhões).

Questionado pela imprensa estrangeira, Zuckerberg não negou as acusações. A censura aos opositores foi interpretada como "necessária" à sobrevivência da rede social no país. Segundo ele, se não tivesse cumprido os pedidos do governo vietnamita, seria o fim do Facebook no país, sendo "ainda pior para a liberdade de expressão" no Vietnã.

10. Mais ódio, mais desinformação, menos moderação:

Se a moderação de discursos de ódio na língua inglesa já deixa a desejar, em países que falam outras línguas o problema é muito maior. De acordo com um documento do Facebook Papers, a empresa teria alocado 87% de seu orçamento para desenvolver seus algoritmos de detecção de desinformação para os EUA em 2020, contra 13% para o resto do mundo.

Um documento de 2021 alertou sobre o número muito baixo de moderadores de conteúdo em dialetos árabes falados na Arábia Saudita, Iêmen e Líbia. Outro estudo da empresa no Afeganistão, onde o Facebook tem 5 milhões de usuários, descobriu que até as páginas que explicam como denunciar o discurso de ódio foram traduzidas incorretamente.

As falhas ocorreram mesmo após a própria Meta marcar alguns dos países como de "alto risco" por causa de seu cenário político frágil e frequência de discurso de ódio.

Segundo as denúncias, em 2017 a companhia tinha conhecimento desse cenário e chegou a prometer investir mais, depois de ser acusada de facilitar um episódio de genocídio em Mianmar. Sobre essas acusações, Mark Zuckerberg ainda não respondeu à imprensa estrangeira.

Ontem (10), a rede social anunciou, em conversas com jornalistas, que está ampliando os idiomas usados para notificar pessoas que postam conteúdos de ódio. O Brasil irá exibir alertas em português. A Meta também afirmou que iniciou testes em espanhol e árabe.

Caso publiquem conteúdos que a inteligência artificial (IA) da plataforma identifique como tal, por exemplo, os internautas poderão receber notificações como: "este post pode conter linguagem racista e é contra as regras da comunidade. Se você publicá-lo, ele poderá ser ocultado para outras pessoas. Caso este comportamento continue, sua conta poderá ser excluída".

11. Falhas constantes da inteligência artificial:

A Meta há muito tempo diz que seus programas de inteligência artificial podem detectar e eliminar publicações que incitam o ódio e que vão contra suas políticas de uso, mas os arquivos vazados mostram que a IA da rede social tem seus limites.

De acordo com uma nota de março de 2021, a empresa toma medidas em apenas 3% a 5% dos conteúdos contendo discurso de ódio e 0,6% de conteúdo violento. Outro documento do Facebook Papers sugere que a IA pode nunca conseguir ir além de 10% a 20%, porque é "extraordinariamente desafiador" para a máquina entender o contexto em que a linguagem é usada.

Mesmo sabendo disso, a Meta teria decidido cortar o dinheiro que estava gastando com moderação humana em 2019 e confiar na IA, quando se tratava de discurso de ódio. Na prática, a empresa teria tornado mais difícil relatar e apelar contra decisões envolvendo esse tipo de conteúdo.

A Meta respondeu à imprensa dizendo que "ao combater o discurso de ódio, o objetivo é reduzir sua prevalência, que é a quantidade de pessoas que realmente a veem". Ele acrescentou que o discurso de ódio responde por apenas 0,05% do que as pessoas de fato veem na plataforma.

12. Empresa abria exceções para políticos e lobistas:

De acordo com as denúncias, a Meta leva em consideração movimentos de lobistas e políticos na hora de decidir o que deletar ou qual produto lançar, quando se trata da aplicação da política de conteúdo. Segundo os documentos, os funcionários se preocupavam com o grau de relação da empresa com políticos e lobistas de Washington, capital dos Estados Unidos.

Inclusive, a área de relações públicas, supervisionada por Joel Kaplan, avaliava discursos e como tratar relações com figuras políticas de direita, que estimulavam a desinformação, incluindo o ex-presidente americano Donald Trump.

13. Cortes de investimento para coibir o abuso infantil:

Um ex-funcionário da empresa afirmou para autoridades dos EUA que os esforços para remover materiais envolvendo abuso infantil que circulam na rede social não foram suficientes por parte da Meta, resultando em ações inadequadas e pouco eficientes.

A plataforma teria, inclusive, desmontado uma equipe que estava criando um software capaz de identificar vídeos ligados ao abuso infantil porque o programa foi considerado "muito complexo". As acusações também falam que a empresa desconhece a escala real do problema, pois não faz rastreio das publicações.

Sobre isso, a Meta negou as denúncias e afirmou utilizar tecnologias sofisticadas para combater o que chamam de "uma prática abominável". A empresa também tem enviado notas à imprensa sobre as acusações, dizendo que não coloca o lucro à frente da segurança ou do bem-estar das pessoas e que investiu US$ 13 bilhões e contratou mais de 40 mil pessoas para fazer o trabalho de manter pessoas seguras no Facebook.

Algo familiar com o "O Dilema nas Redes"?

Diante da repercussão negativa após o Facebook Papers, algumas pessoas automaticamente lembraram do documentário da Netflix "O Dilema das Redes".

Baseado em depoimentos de ex-funcionários de plataformas como Facebook e Instagram, o filme mostra como atuam os algoritmos das redes sociais e por que conteúdos com discurso de ódio, desinformação e teorias da conspiração se espalham tão rápido nessas plataformas.

Na época, Zuckerberg rebateu o documentário e afirmou que a obra estava tentando achar um "bode expiatório para problemas sociais complexos".

Em um comunicado, a empresa chegou a desmentir a narrativa do filme sobre vício, algoritmos, dados, polarização, eleições, desinformação e visão de usuário como produto, enumerando iniciativas para corrigir seus problemas — embora algumas delas tenham surgido após o lançamento do documentário, em janeiro de 2020.

*Com informações dos sites Wall Street Journal, Insider, Folha de São Paulo