PUBLICIDADE
Topo

Instagram e Facebook notificarão quem posta conteúdo de ódio em português

Reuters
Imagem: Reuters

Guilherme Tagiaroli

De Tilt, em São Paulo

09/11/2021 15h31Atualizada em 09/11/2021 16h13

Sem tempo, irmão

  • Meta testa sistema de notificação de conteúdo de ódio em português
  • Atualmente, Facebook e Instagram em inglês contam com tais avisos
  • Empresa também trabalha em implementar recurso em espanhol e árabe
  • Objetivo é educar e desencorajar publicações com discurso hostil, como bullying e assédio

Facebook e Instagram passarão a notificar as pessoas que postam conteúdos de ódio em língua portuguesa. O anúncio foi feito pela Meta (companhia controladora das redes sociais) nesta terça-feira (9) durante conferência para jornalistas sobre os padrões de comunidade de suas redes sociais. Apesar do anúncio, não foi especificado quando que os brasileiros passarão a visualizar tais avisos.

Esse processo de notificação já aparece para internautas de língua inglesa do Facebook e do Instagram, e agora a companhia faz um movimento para expandir a funcionalidade para outras idiomas. Além do português, a Meta diz realizar testes em espanhol e árabe.

O que muda?

Na prática, as pessoas poderão ver notificações com alertas como: "este post pode conter linguagem racista e é contra as regras da comunidade", diz um exemplo exibido pela rede social escrito em língua inglesa. "Se você publicá-lo, ele poderá ser ocultado para outras pessoas. Caso este comportamento continue, sua conta poderá ser excluída".

Aviso em inglês notifica quando postagem vai contra políticas do Facebook e Instagram; companhia planeja implementar avisos em português - Reprodução/Meta - Reprodução/Meta
Aviso em inglês notifica quando postagem vai contra políticas do Facebook e Instagram; companhia planeja implementar avisos em português
Imagem: Reprodução/Meta

Além deste exemplo de notificação sobre racismo, as políticas de aviso também devem, promete a Meta, "educar e desencorajar as pessoas a postar algo que possa incluir discurso hostil, como bullying e assédio".

Anúncio após polêmicas

Ainda que a melhoria de moderação de conteúdo em outras línguas seja uma medida encorajada pelo conselho de supervisão do Facebook, um grupo de especialistas independentes que auxiliam a rede na criação de políticas para melhorar a plataforma, a iniciativa é anunciada em meio ao Facebook Papers, nome que ficou conhecido uma série de reportagens e denúncias baseadas em documentos internos da rede social vazados pela ex-funcionária Frances Haugen.

Em um dos arquivos internos, por exemplo, é citado que o Brasil é um dos países que mais precisam de moderação de conteúdo, ao lado de Índia e Estados Unidos, o que demonstra que a empresa já estava de olho na questão.

Contudo, o documento vazado do Facebook reforça que o idioma é uma das grandes barreiras da rede social: países grandes acabam recebendo muita atenção e investimento, enquanto países como Mianmar e Etiópia — que atravessam conflitos políticos e sociais — não contam com classificadores de conteúdo, facilitando a disseminação de desinformação e discurso de ódio.

Empresa diz que reduziu discurso de ódio graças à IA

Em conferência para jornalistas, a companhia também deu detalhes dos seus esforços de moderação de conteúdo no terceiro trimestre, especificando porcentagens de conteúdos problemáticos por rede social.

Um dos destaques é a redução de discurso de ódio. No segundo trimestre eram 0,05% contra 0,03% nos últimos três meses.

Outro ponto importante diz respeito ao bullying no Instagram, uma métrica nova divulgada pela controladora das redes sociais. No terceiro trimestre, houve de cinco a seis visualizações desse tipo de conteúdo em 10 mil visualizações (entre 0,05% - 0,06% visualizações).

Importante ressaltar que essas métricas dizem respeito a conteúdos removidos pelas redes, sem a necessidade de um usuário reportar. Portanto, as informações dizem respeito a um subgrupo de uma categoria, pois nem sempre um sistema automatizado consegue distinguir o que é bullying ou não, por exemplo.

A companhia atribui a baixa porcentagem de conteúdos problemáticos a seus sistemas de inteligência artificial.

Ao todo, a Meta diz ter equipes globais de revisão em mais de 70 idiomas e tecnologias de inteligências artificial para checar discurso de ódio em mais de 50 línguas. Além disso, tem realizado investimentos específicos em países em situação de conflito.

Abaixo, o detalhamento de prevalência de discursos problemáticos por rede social:

  • Discurso de ódio

Facebook: 0,03% - três visualizações a cada 10 mil visualizações de conteúdo;

Instagram: 0,02% - duas visualizações a cada 10 mil visualizações de conteúdo.

  • Violência e incitação

Facebook: 0,04% - 0,05% - quatro a cinco visualizações a cada 10 mil visualizações de conteúdo;

Instagram: 0,02% - duas visualizações a cada 10 mil visualizações de conteúdo.

  • Bullying e assédio

Facebook: 0,14% - 0,15% - 14 a 15 visualizações desse conteúdo em 10 mil visualizações;

Instagram: 0,05% - 0,06% - cinco a seis visualizações desse conteúdo em 10 mil visualizações.