Topo

Massacre de Christchurch: Facebook treinou sistema para detectar atiradores

Getty Images
Imagem: Getty Images

Bruno Torquato

Colaboração para Tilt, em Betim (MG)

29/10/2021 04h00Atualizada em 29/10/2021 07h04

As polêmicas que o Facebook enfrenta desde que a ex-funcionária Frances Haugen, 37, decidiu fazer uma série de denúncias com base em documentos internos da empresa não param de crescer.

Novas reportagens baseadas em entrevistas com ex-funcionários e análise dos arquivos vazados por Haugen mostram como o Facebook teria lidado com temas delicados como:

  • exclusão de conteúdos sobre abuso infantil;
  • erro em algoritmo à época do massacre em duas mesquitas na Nova Zelândia,
  • proximidade com lobistas;
  • ações para resolver problemas de crise de imagem.

Confira a seguir o que se sabe até o momento sobre os novos desdobramentos:

Abuso infantil

Um ex-funcionário da empresa afirmou para autoridades dos Estados Unidos que os esforços para remover materiais envolvendo abuso infantil que circulam na rede social não foram suficientes por parte do Facebook, resultando em ações inadequadas e pouco eficientes, de acordo com informações da BBC News, que teve acesso a um documento sobre isso.

A publicação inglesa disse que, de acordo com o ex-colaborador, a plataforma desmontou uma equipe que estava criando um software capaz de identificar vídeos ligados ao abuso infantil porque o programa foi considerado "muito complexo".

As acusações também falam que a empresa desconhece a escala real do problema, pois não faz rastreio das publicações. "Ocorrem muitos comportamentos aterrorizantes e abomináveis", disse ele à BBC News.

Em resposta ao site, o Facebook declarou que tem tolerância zero "para esse abominável abuso de crianças e usamos tecnologias sofisticadas para combatê-lo. Financiamos e ajudamos a construir ferramentas usadas pela indústria para investigar este terrível crime, resgatar as crianças e levar justiça às vítimas."

A empresa também ressaltou que compartilha tecnologias antiabuso com outras companhias e que mais de 40 mil pessoas trabalham na segurança e proteção de internautas, com investimentos acima de 13 bilhões de dólares desde 2016.

Algoritmo mudou após massacre de Christchurch

No que ficou conhecido mundialmente como massacre de Christchurch, em 2019, duas mesquitas foram atacadas na Nova Zelândia pelo supremacista branco Brenton Tarrant, que entrou armado e abriu fogo contra as pessoas nos locais. Ao todo, 51 muçulmanos morreram e vários ficaram feridos.

Um dos ataques foi transmitido ao vivo pelo homem por meio do Facebook Live, braço de transmissão de vídeos em tempo real.

A empresa agiu para remover o conteúdo e cópias do material com os atos de violência (1,5 milhões foram excluídos, divulgou a rede social na época), mas os 17 minutos de transmissão viralizaram rapidamente antes mesmo da ação.

Sobre o ocorrido, o Facebook chegou a explicar que a primeira denúncia de internauta sobre o vídeo do atirador aconteceu 29 minutos depois do início da transmissão e 12 minutos após o seu término.

De acordo com documentos internos, os sistemas de detecção de ações violentas só registraram o caso após cinco minutos depois de a transmissão ter iniciado.

Com o objetivo de fazer seus algoritmos reconhecerem rapidamente imagens violentas dentro da rede social, o Facebook atualizou seus sistemas, segundo reportagens publicadas pelos Wall Street Journal e Gizmodo, nos Estados Unidos.

A solução encontrada foi a criação de um grande banco de imagens policiais, as chamadas bodycam, para treinar sua inteligência artificial. Vídeos de ações de soltados, adquiridos via parcerias com órgãos militares, também foram usados.

Com esse volume de dados, eles puderam desenvolver um sistema de detecção de "atirador em primeira pessoa", em tradução literal do "First Person Shooter (FPS). Ou seja, reconhecer situações vistas a partir do ponto de vista do indivíduo (como nos games inspirados pelo famoso jogo "Doom")

Com isso, uma transmissão ao vivo de tiroteio em massa, por exemplo, conseguiria ser detectada em até 12 segundos.

O caminho para denunciar conteúdos que violam as políticas do Facebook também foi simplificado para que pudesse ser feito em apenas um clique.

Internamente, a empresa passou a usar a tag "terrorismo" para controlar melhor os vídeos denunciados.

Postagens políticas para políticos felizes

De acordo com o portal Politico, o Facebook levava em consideração movimentos de lobistas e políticos na hora de decidir o que deletar ou qual produto lançar.

A reportagem diz que funcionários se preocupavam com o grau da relação da empresa com políticos e lobistas de Washington, capital dos Estados Unidos.

A publicação relata que a área de relações com lobistas e governos, supervisionada por Joel Kaplan, avaliava discursos e como tratar relações com figuras políticas de direita, que estimulavam a desinformação e envolvendo anúncios do ex-presidente Donald Trump.

As consequências dos protestos pela morte de George Floyd, um norte-americano negro morto por policial branco, de junho do ano passado, também foram analisadas.

As condutas eram tratadas pelos funcionários do Facebook como uma forma de ignorar as próprias políticas internas somente para manter os políticos felizes.

"Rotineiramente, o Facebook faz exceções para figuras poderosas quando se trata da aplicação da política de conteúdo [regras de publicações]", disse um cientista de dados do Facebook em uma apresentação datada de dezembro de 2020, que recebeu o nome de "Influências políticas na política de conteúdo", em tradução literal.

Estratégia fraca para lidar com crises de imagem

Documentos vazados sobre a empresa mostram ainda que ela parece não estar bem estruturada para lidar com as crises de imagem. Uma pesquisa interna tentou medir a "legitimidade percebida" de internautas sobre o Facebook.

Entre os resultados, destacou-se que esse índice é baixo entre os participantes e ninguém acredita que a empresa faz algo sem pensar no dinheiro.

Para lidar com essa crise de imagem, apenas poucas soluções: "construir confiança por meio da experiência de produtos e contratar mais pessoas negras", diz o arquivo interno. Nada mais.

"Eles [entrevistados] acreditam que as pessoas que construíram os algoritmos são ingênuas ou racistas", completa o documento.

A empresa não respondeu aos veículos de imprensa sobre os casos exemplificados acima.