Topo

Facebook é acusado de alimentar guerra civil na Etiópia em processo de R$ 11 bi

Chris Vallance - Repórter de tecnologia da BBC

14/12/2022 13h38Atualizada em 15/12/2022 16h13

Ação movida na Justiça do Quênia também reivindica mudanças no algoritmo do Facebook, que alimentaria ódio e violência.

O algoritmo do Facebook ajudou a alimentar a propagação viral de ódio e violência durante a guerra civil da Etiópia, segundo alega um processo que corre na Justiça.

Abrham Meareg, filho de um acadêmico etíope morto a tiros após ser atacado em postagens no Facebook, está entre os que moveram a ação contra a Meta, dona do Facebook.

Os requerentes reivindicam um fundo de US$ 2 bilhões (cerca de R$ 11 bilhões) para vítimas de ódio no Facebook e mudanças no algoritmo da plataforma.

A Meta argumenta que investiu pesadamente em moderação e tecnologia para remover o ódio online.

Um representante diz que discurso de ódio e incitação à violência são contra as regras da plataforma.

"Nosso trabalho de segurança e integridade na Etiópia é guiado pelo feedback de organizações locais da sociedade civil e instituições internacionais", diz o porta-voz.

Condições de fome

O caso, que está sendo analisado pelo Supremo Tribunal do Quênia, é apoiado pela ONG Foxglove, que defende justiça no setor de tecnologia.

A Meta tem um hub de moderação de conteúdo na capital do Quênia, Nairóbi.

Centenas de milhares de pessoas morreram no conflito entre o governo etíope e as forças na região norte de Tigray, com outras 400 mil vivendo em condições de fome.

No mês passado, um acordo de paz surpresa foi acertado — mas, recentemente, houve um aumento de assassinatos por motivos étnicos entre as comunidades de língua amhara e oromo.

No ano passado, o pai de Meareg foi uma das vítimas da violência no país.

Em 3 de novembro de 2021, o professor Meareg Amare Abrha foi seguido depois de sair da universidade por homens armados em motocicletas e baleado à queima-roupa ao tentar entrar na casa da família.

Ameaças de seus agressores impediram que testemunhas o ajudassem enquanto ele sangrava, diz seu filho. Ele morreu caído no chão sete horas depois.

Antes do ataque, postagens no Facebook o difamavam e revelavam informações que ajudavam a identificá-lo, alega seu filho.

Apesar das repetidas reclamações usando a ferramenta de relatórios do Facebook, a plataforma "não apagou essas postagens até que fosse tarde demais".

Uma delas foi removida após a morte de seu pai.

Outra, que a plataforma se comprometeu a remover, permanecia online em 8 de dezembro de 2022.

'Lamentavelmente inadequado'

"Se o Facebook tivesse parado de espalhar o ódio e moderado as postagens corretamente, meu pai ainda estaria vivo", diz Meareg.

Ele quer garantir que nenhuma família sofra como a dele, acrescenta, e reivindica "um pedido de desculpas pessoal" da Meta.

Em uma declaração juramentada apresentada ao tribunal, Meareg alega que o algoritmo do Facebook promove conteúdo "odioso e provocador" porque provavelmente atrai mais interação dos usuários.

Ele também afirma que a moderação de conteúdo do Facebook na África é "lamentavelmente inadequada", com muito poucos moderadores que lidam com postagens nos idiomas principais do país, como amárico, oromo e tigrínia.

Questionada pela BBC News sobre o caso, a Meta diz que "empregamos funcionários com conhecimento e experiência locais, e continuamos a desenvolver nossas capacidades para detectar conteúdo violador nas línguas mais faladas no país, incluindo amárico, oromo, somali e tigrínia".

A empresa alega manter a Etiópia como uma "alta prioridade" — embora menos de 10% da população usem o Facebook — e diz que as medidas tomadas incluem:

  • reduzir a viralização das postagens
  • expandir as políticas contra violência e incitação
  • aprimorar a plataforma

Análise de Peter Mwai, da BBC em Nairóbi

Este é um avanço significativo, uma tentativa de responsabilizar legalmente uma empresa de mídia social por suas ações durante o conflito na Etiópia.

Os críticos dizem que a Meta e outras empresas de mídia social fazem muito pouco para impedir o compartilhamento e a disseminação de desinformação e conteúdo que promove ódio e incitação contra vários grupos étnicos. E, em alguns casos, demora muito para que o conteúdo seja removido, principalmente depois que as pessoas denunciam.

Outros afirmam que a empresa tem sido injusta em sua repressão ao conteúdo odioso, visando postagens escritas em alguns idiomas de forma desproporcional.

A Meta sempre insistiu que faz muito e investiu pesadamente na capacidade de rastrear conteúdo odioso e inflamatório nas línguas mais faladas no país.

Possui moderadores de conteúdo familiarizados com os principais idiomas locais, mas também conta com inteligência artificial e parceiros locais para averiguar o conteúdo. Mas nunca ficou claro quantos moderadores trabalham com a Meta com foco na Etiópia.

Mas esta não é a primeira vez que o Facebook é acusado de fazer muito pouco para impedir a disseminação de conteúdo que promove o ódio étnico e a violência na Etiópia.

Em 2021, Frances Haugen, uma ex-funcionária do Facebook, disse ao Senado dos Estados Unidos que o algoritmo da plataforma estava "estimulando a violência étnica... captando os sentimentos extremos, a divisão", pois essas postagens atraíram alto engajamento, enquanto o Facebook não conseguia identificar adequadamente o conteúdo perigoso e carecia de conhecimento suficiente em muitos idiomas locais — incluindo alguns falados na Etiópia.

Outros requerentes na ação incluem o Instituto Katiba e Fisseha Tekle.

Tekle alega que as falhas de moderação do Facebook tornaram impossível seu relatório sobre direitos humanos no conflito para a ONG Anistia Internacional — e colocou a vida de sua família em risco.

Eles pedem à Justiça que determine que o Facebook tome medidas para remediar a situação, incluindo:

  • criar um fundo de restituição de cerca de 200 bilhões de xelins quenianos (cerca de R$ 8,7 bilhões) para vítimas de ódio e violência no Facebook e mais 50 bilhões de xelins quenianos (cerca de R$ 2,2 bilhões) por danos semelhantes causados por postagens patrocinadas;
  • impedir o algoritmo de recomendar "conteúdo provocador, odioso e perigoso";
  • empregar moderadores suficientes para traduzir o conteúdo local, garantindo equidade entre a moderação em Nairóbi e a dos usuários dos Estados Unidos.

- Este texto foi publicado em https://www.bbc.com/portuguese/geral-63974172