Topo

"Pornografia infantil, violência, você tem que estar preparada para tudo": o relato de uma moderadora do Facebook

Revisores de conteúdo do Facebook acabam se deparando com imagens de violência e pornografia infantil - Getty Images
Revisores de conteúdo do Facebook acabam se deparando com imagens de violência e pornografia infantil Imagem: Getty Images

Jim Taylor

da BBC

11/02/2018 12h32

"O que mais tem é pornografia", diz Sara Katz, ao se lembrar dos oito meses em que trabalhou como moderadora do Facebook.

"A agência foi muito direta sobre o tipo de conteúdo que veríamos e o quão gráfico era, portanto sabíamos o que estávamos enfrentando", declara.

Veja também

Katz se refere a uma agência de moderadores humanos com sede na Califórnia, nos Estados Unidos, que o Facebook e outras empresas contratam. Ela trabalhou com isso em 2016.

A tarefa de Katz consistia em revisar as queixas sobre conteúdo inapropriado que chegavam dos usuários do Facebook.

Não era uma tarefa tranquila. "Davam para a gente cerca de um minuto por publicação, para decidir se era spam e tinha que ser apagado. Às vezes, apagávamos a conta associada à postagem também", explica.

"A gerência não gostava que trabalhássemos mais que oito horas por dia, e revisávamos uma média de 8 mil publicações por dia, mil por hora."

Katz diz que "aprendeu bastante" no período, mas destaca que, se tivesse que descrever o trabalho com uma só palavra seria, "extenuante".

Sarah Katz trabalhou oito meses modernando conteúdo impróprio do Facebook - BBC - BBC
Sarah Katz trabalhou oito meses modernando conteúdo impróprio do Facebook
Imagem: BBC

Imagens ilegais

"Definitivamente você tem que estar preparado para ver qualquer tipo de coisa em apenas um clique. As imagens chegam de repente, sem aviso prévio", diz.

A que mais a impactou foi uma fotografia que sugeria pornografia infantil. "Era de um menino e uma menina. O menino tinha uns 12 anos, e a menina, oito ou nove. Eles estavam de frente um para o outro, sem calça", descreve.

"Parecia que um adulto estava dizendo a eles o que fazer. Foi muito perturbador, principalmente porque dava para ver que era real."

Publicações que se repetem

"Muitas dessas publicações explícitas circulavam continuamente. Víamos passar por seis contas distintas ao longo do dia, mas era difícil achar a fonte original", se lembra.

Katz diz que, na época em que fazia o monitoramento de publicações, não havia para os funcionários serviços de aconselhamento e ajuda psicológica. "Pode ser que hoje exista, não tenho certeza", afirma.

Ela reconhece que, se tivessem oferecido esse tipo de apoio em 2016, ela certamente teria aceitado a ajuda.

"Definitivamente te advertem, mas ser alertado e ver são duas coisas diferentes", destaca.

Atualmente, existem mais de 7 mil moderadores de conteúdo do Facebook - AFP - AFP
Atualmente, existem mais de 7 mil moderadores de conteúdo do Facebook
Imagem: AFP

"Alguns pensam que podem lidar com a situação, mas acabam vendo que não conseguem, porque a realidade é pior do que esperavam."

Violência gráfica

Katz avalia que os moderadores acabam se tornando, muitas vezes, "bastante insensíveis" com o tempo. "Não diria que é mais fácil (ver imagens violentas e de pornografia), mas você se acostuma", explica.

"Obviamente havia muito mais pornografia genérica entre adultos, o que não era tão perturbador."

Em alguns casos, as fotografias incluíam animais. "Tinha uma imagem com um cavalo que circulava com frequência", recorda.

E também apareciam muitas cenas violentas. "Lembro de uma publicação em que arrancavam a cabeça de uma mulher", conta.

"Parte do corpo dela estava no solo, e a outra metade, o torso, numa cadeira", descreve.

"A política era mais rigorosa para a eliminação de pornografia que para violência gráfica."

Notícias falsas

"Creio que as notícias falsas pegaram o Facebook de surpresa", diz Katz.

"Durante a campanha para as eleições dos Estados Unidos era algo que estava fora do radar, ao menos durante o tempo em que eu trabalhei ali."

"Realmente não me recordo de ter escutado muito o termo 'fake news'", assegura.

"Circulava uma grande quantidade de artigos que eram denunciados pelos usuários, mas não me lembro de os gerentes pedirem que verificássemos se os fatos correspondiam à realidade", conta.

Embora tenha tido contato com algumas imagens perturbadoras, em geral, o trabalho de moderador era "monótono", diz ela.

"Realmente você acaba se acostumando a identificar o que é spam e o que não é. Simplesmente, a atividade se converte numa monotonia de cliques."

Perguntada se recomendaria o trabalho, ela é taxativa: "Se você puder fazer qualquer outra coisa, eu diria que não".

A resposta do Facebook

A BBC encaminhou o relato de Katz ao Facebook. Em resposta, um porta-voz da empresa disse: "Nossos revisores desempenham um papel crucial para fazer do Facebook um local seguro e aberto".

A rede social reconheceu que o trabalho de moderador "pode ser muito desafiador". "Queremos assegurar que (os moderadores) estejam devidamente respaldados."

"Por isso, oferecemos capacitação regularmente, assessoramento e apoio psicológico a todos os nossos empregados e a todos os que trabalham para nós por meio de nossos sócios", completou.

O Facebook também disse que, embora use inteligência artificial sempre que possível, existem mais de 7 mil pessoas que revisam conteúdo da rede social. "Cuidar do bem estar deles é uma verdadeira prioridade nossa."