Topo

Telegram, Reddit e Gettr: como são suas moderações e por que isso importa

Getty Images
Imagem: Getty Images

Marcos Bonfim

Colaboração para Tilt, de São Paulo

25/01/2022 04h00

A moderação dos conteúdos nas redes sociais se transformou em um capítulo central para as plataformas. Governos, autoridades e instituições que defendem direitos humanos têm cobrado cada vez mais e pressionado por ações para conter a desinformação com fake news, barrar discursos de ódios e fortalecer o respeito aos indivíduos.

No centro das polêmicas, Facebook, WhatsApp, Instagram e Twitter costumam aparecer. Mas como é que outras plataformas alternativas aos programas mais populares no Brasil lidam com isso? Será que elas possuem políticas mais seguras para proteger seus internautas? Tilt conversou com especialistas para responder essas e outras dúvidas sobre o tema.

Os programas analisados foram:

  • Reddit, rede social com vários fóruns que reúnem pessoas com interesses em comum. Ela adota um modelo descentralizado de moderação, com usuários desempenhando o papel central.
  • Telegram, serviço de mensagens concorrente do WhatsApp que mais cresceu em 2021 em número de usuários ativos. Ele se propõe a atuar somente em casos de violência, terrorismo e pornografia, mas que afirma não ter a intenção de bloquear quem expresse pacificamente "opiniões alternativas".
  • Gettr, lançada recentemente por um ex-assessor do Donald Trump. A rede social se apresenta com um app contra a cultura do cancelamento.

Ignorando as autoridades

Segundo Thiago Tavares, presidente da SaferNet Brasil, essas redes praticamente não têm moderação de conteúdo, nem humana e nem automatizada (ao contrário de plataformas como Facebook, Instagram e Twitter). "Existem algumas ferramentas para detectar atuação de spammers [disparos indevidos de mensagens de spam], mas são ferramentas limitadas", afirmou em entrevista a Tilt, antes de se auto exilar na Alemanha após ser alvo do programa espião Pegasus.

"São redes que não tem foco em políticas de integridade e aderência a princípios e leis de proteção aos direitos humanos. Conteúdos racistas e neonazistas circulam livremente e até mesmo de abuso sexual infantil existem nessas redes e páginas de agressores sexuais e aliciadores continuam no ar e não são derrubadas", complementa.

Telegram pode ser o vilão das eleições de 2022

Para o especialista, o Telegram é o caso que oferece mais preocupação, já que a plataforma ignora apelos e demandas das autoridades brasileiras.

Órgãos como o TSE (Tribunal Superior Eleitoral) e o Ministério Público têm tentado contato com os responsáveis pelo app de mensagens instantâneas, que não tem representação no país, mas eles não conseguem retorno da empresa.

A rede hoje já é vista como um "grande desafio" pelas autoridades em relação ao combate às fake news durante as eleições de 2022 no Brasil. O Telegram tem uma política de deixar que os conteúdos circulem livremente, sob o argumento de defender a liberdade de expressão e de buscar evitar a intromissão ou censura de governos.

Logo, ele já é considerado um dos potenciais vilões da desinformação — na eleição de 2018, o vilão foi o WhatsApp. Oficialmente, o aplicativo exclui somente pessoas que compartilharam informações relacionadas a atitudes terroristas, incitação à violência e pornografia ilegal.

Por essas e outras, passou a ser usado como "alternativa" para espalhar fake news e propagar discursos de ódio. Grupos e canais focados em falar sobre as vacinas contra a covid-19 e/ou alardear dados não comprovados, por exemplo, são comuns, como Tilt já pôde comprovar.

"Eles [o Telegram] teriam que montar equipe para tratar de segurança, fazer moderação de conteúdo, investir em tecnologia de detecção de abusos etc e eles não querem", afirma Tavares.

Yasmin Curzi, pesquisadora do Centro de Tecnologia e Sociedade (CTS) da FGV Direito Rio, também vê a plataforma em uma área cinzenta em relação às normas brasileiras. Procurado, o Telegram não respondeu até o fechamento da matéria.

Gettr e a cultura de cancelamento?

Criada como uma alternativa em relação às redes das big techs (empresas que dominam o setor), a Gettr foi lançada como uma rede contra a cultura do cancelamento. Ela se diz ser baseada no "princípio da liberdade de expressão, pensamento independente e rejeição da censura política", e ganho popularidade após políticos da extrema-direita, como Donald Trump, serem banidos por ferirem as políticas de moderação no Facebook e Twitter.

Hoje, o serviço tem sido usado como um "repositório de conteúdo": quando um post é retirado de uma plataforma "popular", por exemplo, os usuários têm como estratégia colocar o conteúdo na Gettr e usar o link para distribuir em seus perfis e canais em outras redes e apps de mensagens instantâneas.

Para Curzi, apesar do crescimento atual, essas redes acabam tendo uma vida curta, como a Parler, rede social que foi bloqueada pelo Google por não conter uma política clara de moderação. A especialista afirma que a segurança e a moderação são ativos importantes para que os usuários continuem nas plataformas.

"As pessoas não se sentirão confortáveis em um ambiente que seja totalmente catastrófico. Ninguém quer ver propaganda jihadista, pornografia aberta, esse tipo de conteúdo na plataforma. É de baixo interesse para usuários comuns, a não ser aqueles radicalizados, que se mantêm nelas", afirma.

Hoje, segundo a própria Gettr, o Brasil conta com mais de 500 mil usuários e é um dos principais países para a plataforma, que planeja a abertura de um escritório por aqui em um "futuro próximo".

Procurada por Tilt, a plataforma afirmou que o seu sistema de triagem é feito por inteligência artificial e por uma equipe de moderadores humanos treinados em vários idiomas e que, à medida que a rede cresce, continua investindo em mais esforços de moderação. "Os termos de serviço em nosso site deixam muito claro que discurso de ódio, bullying, assédio, pornografia ou calúnias homofóbicas, raciais ou sexuais não serão permitidos".

Apesar da resposta, os termos de serviço da rede têm partes que entram em contradição com o discurso. No material, está escrito, por exemplo, que a despeito das denúncias dos usuários sobre o uso indevido da comunidade, a Gettr não assume "qualquer responsabilidade pelo monitoramento contínuo da Comunidade Interativa ou pela remoção ou edição de qualquer UGC [Conteúdo gerado por terceiros, em português], mesmo após o recebimento de notificação".

Para Tavares, da SaferNet, isso mostra como as plataformas precisam ser mais atuantes. "Uma coisa é você colocar isso em um texto, por que o papel aceita tudo, outra é aplicar na prática e oferecer ferramentas ao usuário para que ele possa efetivamente denunciar e, em caso da denúncia ser recusada, que ele possa recorrer."

"Os mecanismos [de análise] cometem erros, o volume de posts é gigante e, quanto menos avançada a tecnologia, maior a taxa de falso positivos", afirma.

Moderação descentralizada

Em meio a todas as polêmicas envolvendo a necessidade de moderação nas plataformas, o Reddit funciona descentralizado. Os usuários voluntários fazem o processo de análise dos conteúdos nos subreddits, como são denominados os grupos na plataforma.

Para a pesquisadora Curzi, da FGV Rio, o modelo da empresa é mais complexo. "Tem grupos com moderação muito boa, que são focados em disseminar informação, como um fórum de historiadores que só permite que conteúdos com referência sejam colocados, mas, por outro lado, tem uns fóruns problemáticos", explica.

Ela cita como exemplo a articulação de moderadores voluntários que conseguiram fazer alianças para impedir desinformação sobre vacinas sobre covid-19. Esse trabalho, no entanto, pode representar ataques e ameaças. Alguns moderadores brasileiros afirmam que não podem contar com o apoio da plataforma em casos assim.

"No caso do Reddit, dá a sensação de que eles querem se isentar do papel de moderador", afirma Luana Kava, professora do curso de marketing da PUC-PR e doutoranda em gestão da informação.

"Quando eu sou moderador e sou ameaçado, quanto que o Reddit vai me dar de suporte? Não vai. As pessoas terão que buscar um advogado por conta ou procurar uma outra forma", complementa. Questionada por Tilt, o Reddit não informou como lida com essas questões.

Tiago Tavares, da SaferNet, concorda que o modelo do Reddit também se exime de responsabilidades e do custo da moderação.

"Pegue o caso do Facebook, por exemplo, que afirma ter mais 40 mil pessoas trabalhando no time. Além dessa equipe, há todo um investimento em equipamento para rodar algoritmos avançados de deep learning [inteligência artificial com capacidade de aprender] e outras ferramentas. É um investimento parrudo, o que também significa uma barreira de entrada", conclui.