Topo

IA não resolve: veja 5 dicas de funcionários para 'consertar' o Facebook

Dado Ruvic/Reuters
Imagem: Dado Ruvic/Reuters

Marcella Duarte

Colaboração para Tilt, em São Paulo

27/10/2021 04h00

As denúncias dos "Facebook Papers", documentos vazados por ex-funcionários para a imprensa internacional na última semana, poderiam ajudar a "consertar" a rede social. Arquivos confidenciais da empresa mostram que os próprios funcionários sabiam quais eram os maiores problemas das plataformas proprietárias e como resolvê-los.

Segundo eles, os algoritmos do Facebook e do Instagram ajudam a viralizar conteúdos de baixa qualidade, colocando-os no topo do feed. Aliado a sistemas de moderação ineficientes, o sistema é treinado para recompensar indignação e ódio. Mas alguns ajustes indicados pela equipe do Facebook poderiam tornar a rede social um lugar melhor.

Veja cinco recomendações de funcionários do Facebook sobre como consertar a rede social, segundo os documentos vazados:

1. Engajamento não faz um bom produto

Funcionários concordam que o Facebook e o Instagram prezam o engajamento mais do que qualquer valor. Afinal, quanto mais tempo as pessoas passam nos apps, mais anúncios elas veem e mais dinheiro a empresa ganha. Mas estudos internos mostram que manter as pessoas muito presas às redes sociais não costuma ser bom para elas — uma boa plataforma deveria levar em conta a qualidade da experiência do usuário.

Porém, na hora de realizar mudanças e lançamentos, a diretoria da empresa presta pouquíssima atenção em fatores além do engajamento. "Se isso aumenta os danos graves que podemos medir, como desinformação e ataques de ódio, devemos pensar duas vezes se esta é realmente uma boa mudança a ser feita", ponderou um funcionário em uma discussão interna em 2019.

De acordo com Frances Haugen e seus ex-colegas de trabalho, o Facebook tem ignorado o impacto de seus produtos nos usuários e na sociedade, em nome de mais lucros. A empresa nega as acusações.

2. Inteligência Artificial não conserta tudo

O valor de uma postagem, grupo ou página é determinado pelas chances de você querer olhar para ela, curtir, comentar e compartilhar. Quanto mais alta essa probabilidade, com mais destaque aquele conteúdo será exibido no Facebook ou Instagram.

Mas o que chama atenção também é o que pode enfurecer ou enganar. Por isso, conteúdos de baixa qualidade e integridade, que causam indignação ou partidarismo, que estão no limite de burlar as regras, se saem muito bem nas plataformas. E o Facebook conhece bem esta dinâmica.

Em vez de otimizar o engajamento, a resposta da empresa é usar um mix de ferramentas de inteligência artificial e revisão humana para encontrar e remover o que é ruim — o que, apesar de ter reduzido bastante os casos de nudez e pornografia, por exemplo, não tem sido muito eficiente contra violência e discurso de ódio.

De acordo com os funcionários, há outros caminhos para reduzir a exposição dos usuários a conteúdos tóxicos, além dos banimentos. Um deles seria filtrar padrões de comportamento associados a esse tipo de postagem, e então fazer mudanças no algoritmo para reprimi-los, em vez de tentar monitorar toda a rede em busca de conteúdos específicos.

Em seu depoimento ao Congresso dos EUA, no início de outubro, Haugen defendeu a substituição da classificação baseada no engajamento por uma mera cronologia reversa: no topo de seu feed, deve aparecer simplesmente a última postagem feita por alguém que você segue, em vez daquela que o algoritmo entende como "mais relevante".

3. Não menosprezar usuários de países mais pobres

Documentos deixam claro que o Facebook deveria investir mais em países que não falam inglês, principalmente para levar mais segurança, integridade e qualidade aos usuários. Os filtros de inteligência artificial e moderadores não são eficientes em muitos lugares fora dos Estados Unidos simplesmente porque não conseguem entender muitas das línguas faladas nesses lugares.

A situação é particularmente perigosa em países que atravessam guerras e instabilidades políticas, como o Afeganistão. Os mesmos esforços dedicados aos Estados Unidos deveriam ser replicados em todo lugar, para que ninguém fosse tratado como um cidadão digital de segunda classe — muito menos por uma empresa que promete "conectar o mundo" e cujo maior número de usuário está, justamente, fora dos EUA.

O Facebook, por sua vez, se defende dizendo que adota "uma abordagem abrangente em países que enfrentam ou estão sob risco de conflito ou violência", mantendo mais de 40 mil pessoas trabalhando em segurança e integridade, "incluindo equipes globais de revisão de conteúdo em mais de 20 locais em todo o mundo que revisam conteúdo em mais de 70 idiomas".

4. Parar de ceder à pressão de lobistas e políticos

Proteger o conteúdo de todas as pressões externas deveria ser um dos principais valores do Facebook. Há anos, observadores acusam a empresa de tomar decisões inconsistentes com seus princípios, para atender à pressão de figuras políticas e governos.

"As equipes muitas vezes bloqueiam mudanças nas políticas públicas quando percebem que podem prejudicar atores políticos poderosos", escreveu um ex-cientista de dados antes de deixar a empresa. O Facebook também nega essa acusação.

Um documento de 2020 mostra como resolver o problema: criar um "firewall" para mudanças nas políticas e nos algoritmos, por meio de uma estrutura organizacional de aprovação em três camadas, passando por diversas chefias até chegar ao presidente executivo e fundador do conglomerado, Mark Zuckerberg.

Assim, nenhum time ou indivíduo (que poderiam estar preocupados em agradar determinado lobista ou político) teria poder de decisão concentrado.

5. Levar os próprios estudos a sério

O Facebook é uma empresa enorme. Não é possível considerar cada relatório ou sugestão de funcionário. Mesmo assim, os documentos vazados deixam claro que os líderes têm levado isso ao extremo: não levam em conta nem os indicadores dos próprios estudos e pesquisas mais aprofundadas.

Ao mesmo tempo, fica claro que a empresa está cheia de gente com boas ideias — que, se forem ouvidas, podem ajudar a pavimentar o futuro do Facebook após a avalanche de denúncias dos últimos tempos.