Topo

Estudo explica bem por que moderação de conteúdo do Facebook falha tanto

Getty Images
Imagem: Getty Images

Marcella Duarte

Colaboração para Tilt, em São Paulo

09/06/2020 16h34

O Facebook precisa dar mais atenção à sua estratégia de moderação de conteúdo e parar de terceirizar o serviço. É o que conclui um relatório da Universidade de Nova York (NYU), divulgado neste final de semana.

De acordo com o estudo, o setor deveria funcionar dentro da empresa, recebendo os devidos recursos, e ter equipes em países atravessando situações sociopolíticas delicadas. Só assim é possível combater a desinformação, as fake news e outros conteúdos prejudiciais que circulam na plataforma.

Algumas das ações sugeridas no relatório são: maior número de moderadores e melhores condições de trabalho —incluindo assistência física e mental— para os moderadores, que lidam com informações perturbadoras e traumáticas todos os dias.

Moderação insuficiente

O estudo estima que usuários e o sistema de inteligência artificial sinalizam mais de 3 milhões de postagens suspeitas diariamente. A empresa reporta uma taxa de falha de moderação de 10%, o que resulta em 300 mil conteúdos erroneamente moderados todos os dias.

"Esses números parecem substanciais, mas, observando o volume do que diariamente é disseminado nos sites e aplicativos, eles são grosseiramente inadequados", disse o autor do estudo, Paul Barrett.

O Facebook se uniu a 60 organizações jornalísticas para implementar o "fact-checking" (checagem dos fatos), mas as demandas enviadas a esses grupos também estão bem acima da capacidade de verificação.

Para enfatizar o papel central dos moderadores, Barrett propõe o seguinte cenário:

Imagine como seriam as redes sociais sem ninguém removendo as postagens mais pesadas. Facebook, Twitter e YouTube (do Google) seriam inundados não apenas por spams, mas por conteúdos de bullying, neonazismo, terrorismo e pedofilia. Diante desse caos, a maior parte dos usuários abandonaria as plataformas, seguidos pelos anunciantes

Apesar de sua importância, os moderadores têm sido marginalizados, diz o relatório. Como eles também estão fisicamente distantes, o Facebook costuma falhar em reconhecer a gravidade dos conteúdos revisados.

São exemplos disso Mianmar, onde forças pró-governo usaram a plataforma para disseminar propaganda genocida; e as eleições dos EUA de 2016, quando grupos russos disseminaram desinformação e mensagens de ódio para influenciar o público.

Mas por que isso acontece? Basicamente, para gastar menos. Moderadores terceirizados atuando em países subdesenvolvidos custam menos do que funcionários em tempo integral no Vale do Silício, com escritório físico e benefícios. Barrett, que entrevistou diversos ex-moderadores durante o estudo, acredita que as pessoas são a chave para o sucesso da moderação.

As soluções

Ele sugere oito passos para solucionar o problema:

  • Levar o setor de moderação para dentro da empresa, com melhor remuneração
  • Dobrar o número de moderadores de conteúdo
  • Nomear um executivo qualificado para supervisionar o serviço
  • Investir mais em moderação em "países de risco", principalmente na Ásia e na África, com times falando na língua local
  • Oferecer atendimento médico no ambiente de trabalho
  • Patrocinar pesquisas acadêmicas sobre os riscos de saúde da moderação de conteúdo
  • Apoiar regulações governamentais sobre conteúdos prejudiciais
  • Expandir o volume de 'fact-checking' para combater a desinformação

Temporariamente, em resposta às fake news e golpes relacionados ao coronavírus, o executivo-chefe Mark Zuckerberg levou a moderação de conteúdo de algumas categorias sensíveis para dentro do Facebook.

Durante o período de home office, em que precisou confiar mais na inteligência artificial, a empresa também reconheceu as limitações dos algoritmos que sinalizam conteúdos ofensivos.

Um longo caminho

A reputação do Facebook vem se degradando nos últimos anos. Esta recomendação chega em um momento delicado, após tuítes do presidente norte-americano Donald Trump que incitaram violência policial contra manifestantes pela morte de George Floyd, terem sido marcados como potencialmente perigosos.

Problemas assim são persistentes na empresa. Barrett disse que a moderação é fundamental para manter o Facebook, mas foi relegada a um papel secundário, com prestadores de serviço mal pagos e espalhados por mais de 20 locais.

Mas, todas as grandes plataformas de redes sociais sofrem do mesmo mal. O Facebook tem cerca de 15 mil moderadores de conteúdo, a maior parte deles terceirizados; o YouTube/Google tem 10 mil; e o Twitter tem 1.500; de acordo com o relatório.