Topo

Redes sociais poderiam barrar ódio após ataque terrorista; e há 4 maneiras

Cena do vídeo ao vivo do ataque a tiros em mesquitas na Nova Zelândia, que deixou diversos mortos e feridos - Reprodução
Cena do vídeo ao vivo do ataque a tiros em mesquitas na Nova Zelândia, que deixou diversos mortos e feridos Imagem: Reprodução

Bertie Vidgen*

24/03/2019 11h50

Resumo da notícia

  • As redes sociais foram a plataforma de divulgação do atirador da Nova Zelândia
  • Ele matou dezenas de pessoas e transmitiu tudo ao vivo por Facebook e YouTube
  • Elas demoraram para reagir, mas já removeram milhões de vídeos do massacre
  • O especialista Bertie Vidgen explica quatro maneiras de essas empresas reagirem mais rápido e melhor

O ataque mortal a duas mesquitas em Christchurch, na Nova Zelândia, no qual 50 pessoas foram mortas e muitas outras ficaram gravemente feridas, foi transmitido ao vivo no Facebook pelo homem acusado de realizar a ação. O vídeo foi rapidamente compartilhado entre as plataformas de mídia social.

Versões do vídeo de ataque ao vivo ainda continuaram online por um tempo, o que é preocupante. Uma reportagem do jornal Guardian descobriu que um vídeo permaneceu por seis horas no Facebook e outro por três horas no YouTube, plataforma do Google. Muitas pessoas acreditam que a rápida e aparentemente inexorável disseminação desse vídeo é exemplo de tudo o que há de errado nas mídias sociais: conteúdo tóxico e cheio de ódio que se torna viral e é visto por milhões de pessoas.

Mas devemos evitar tratar as grandes plataformas como bode expiatório. Todas elas (Twitter, Facebook, YouTube, Google, Snapchat) fazem parte do programa #NoPlace4Hate da Comissão Europeia. Elas estão empenhadas em remover conteúdo de ódio dentro de 24 horas.

Além disso, elas estão cientes dos riscos à reputação que estão associados ao terrorismo e outros conteúdos prejudiciais (como pornografia, suicídio, pedofilia) e estão dedicando recursos cada vez mais consideráveis para removê-los. Dentro de 24 horas após o ataque em Christchurch, o Facebook havia banido 1,5 milhão de versões do vídeo de ataque -- das quais 1,2 milhão pararam de serem carregados.

Pedófilos no YouTube: o lado nada cor de rosa da maior plataforma de vídeos

Leia mais

Monitorar conteúdo odioso é sempre difícil. Até mesmo os sistemas mais avançados deixam acidentalmente alguns passarem. Durante ataques terroristas, no entanto, as grandes plataformas enfrentam desafios particularmente significativos. Como uma pesquisa mostrou, esses ataques impulsionam grandes picos de ódio online. Muitas das pessoas que enviam e compartilham esse conteúdo também sabem como enganar as plataformas e contornar seus cheques existentes.

Sendo assim, o que plataformas podem fazer para derrubar conteúdo extremista e odioso imediatamente após ataques terroristas? Proponho quatro medidas especiais necessárias para direcionar especificamente o influxo de ódio a curto prazo.

1) Ajustar a precisão das ferramentas de detecção de ódio

Todas as ferramentas para detecção de ódio têm uma margem de erro. Os designers têm que decidir com quantos falsos negativos e falsos positivos eles ficarão felizes. Falsos negativos são conteúdos que, apesar de odiosos, podem continuar online. Já falsos positivos são pedaços de conteúdo que, mesmo não sendo odiosos, são bloqueados. Há sempre uma tentativa de se chegar ao equilíbrio entre esses dois tipos de ocorrência quando qualquer sistema de detecção de ódio é implementado.

A única maneira de realmente garantir que nenhum conteúdo ofensivo fique online é proibir todo o conteúdo de ser enviado -- mas isso seria um erro. É muito melhor ajustar a sensibilidade dos algoritmos para que as pessoas possam compartilhar conteúdo, mas as plataformas captem muito mais coisas odiosas.

2. Ativar remoções mais fáceis

O conteúdo odioso que chega às grandes plataformas, como Twitter e Facebook, pode ser denunciado pelos usuários. Em seguida, ele é enviado para revisão manual por um moderador de conteúdo, que o verifica usando diretrizes predefinidas. A moderação de conteúdo é um negócio fundamentalmente difícil, e as plataformas visam minimizar as avaliações imprecisas. Muitas vezes, elas adotam uma linha dura: de acordo com jornalistas investigativos, moderadores que trabalham para o Facebook correm o risco de perder seus empregos caso não mantenham altos níveis de precisão na moderação.

Durante ataques, as plataformas podem introduzir procedimentos especiais para que a equipe possa trabalhar rapidamente sobre o conteúdo sem medo de uma baixa avaliação. Elas também podem introduzir quarentenas temporárias, assim o conteúdo é enviado para remoção imediata, mas é reexaminado em uma data posterior.

3. Limitar a capacidade de compartilhar

O compartilhamento é uma parte fundamental das mídias sociais, que o encorajam ativamente. A prática é crucial para o modelo de negócios delas, especialmente o compartilhamento entre plataformas pois nenhuma delas fica de fora quando algo se torna viral. O compartilhamento facilitado também traz riscos: uma pesquisa mostra que conteúdo extremo e odioso é importado de sites de extrema-direita e depositado em sites conhecidos do grande público, por onde se espalham mais rapidamente. Durante um ataque, qualquer coisa que não seja barrada pelo software de detecção de ódio de uma plataforma pode rapidamente ser compartilhado em todas as outras.

As plataformas devem reduzir a quantidade de vezes que um conteúdo pode ser compartilhado em seu site e possivelmente proibir o envio entre sites. Essa tática já foi adotada pelo WhatsApp, que agora limita a cinco o número de vezes que um conteúdo pode ser encaminhado.

4. Criar bancos compartilhados de informações sobre conteúdo

Todas as grandes plataformas têm diretrizes muito semelhantes sobre o que constitui "discurso de ódio" e tentarão derrubar as mesmas postagens após um ataque. Criar um banco compartilhado de dados sobre conteúdo odioso garantiria que as publicações removidas de um site fossem banidas automaticamente de outro. Isso não apenas evitaria a duplicação desnecessária, como também permitiria que as plataformas se debruçassem rapidamente sobre os posts desafiadores e mais difíceis de detectar.

A remoção do conteúdo odioso deve ser vista como um esforço de todo o setor, não um problema que cada plataforma enfrenta individualmente. Bancos de dados compartilhados como esse também até existem, mas de maneira limitada. Os esforços precisam ser intensificados e seu escopo ampliado.

As plataformas precisam, no longo prazo, continuar investindo na moderação de conteúdo e no desenvolvimento de sistemas avançados que integrem o controle humano ao aprendizado de máquina. Existe, porém, uma necessidade urgente de adotarem medidas especiais para lidar com a enxurrada ódio após os ataques terroristas já no curto prazo.

*Este artigo foi publicado originalmente em The Conversation por Bertie Vidgen, candidato a PhD do Instituto Alan Turing, da Universidade de Oxford sob uma licença Creative Commons. Leia o artigo original