Topo

Facebook removeu 21 milhões de posts ligados a pornografia em só 3 meses

Gabriel Francisco Ribeiro

Do UOL, em São Paulo

15/05/2018 11h00

O Facebook resolveu abrir o jogo sobre quais conteúdos remove da sua plataforma. Nesta terça-feira (15), a rede social revelou, por exemplo, que 21 milhões de conteúdos ligados a nudez e pornografia adulta foram tirados do site apenas entre janeiro e março deste ano. Este e outros dados estão no primeiro relatório divulgado pela página sobre padrões da comunidade.

A rede social de Mark Zuckerberg, em seu relatório, apontou que conteúdos são deletados usando tanto tecnologias de inteligência artificial, como também acompanhamento de funcionários da rede social que monitoram conteúdos. Alguns conteúdos são removidos quase em sua totalidade por tecnologias (como spam), enquanto outros ainda são mais via humanos (como discurso de ódio).

Veja também:

Os tipos de conteúdo que não podem ser postados no Facebook estão nos termos de uso do site, mas podem variar na opinião individual dos usuários - por isso, a rede social conta com uma equipe para supervisionar remoções.

A rede social revelou também que ações pode tomar caso ache o conteúdo inadequado: remoção (conteúdo completamente removido do Facebook e tornado inacessível), cobrir conteúdo com alerta (conteúdo ainda fica disponível, mas coberto por um alerta de violento, por exemplo), desativação de conta (usado para contas falsas principalmente) e aviso a autoridades (quando têm suspeita iminente e risco a vidas).

"Seja identificado por nossas tecnologias ou usuários, uma violação em potencial se torna um relatório em nosso sistema. Priorizamos as relacionadas a segurança, incluindo material relacionado a terrorismo e suicídio.", explica o Facebook.

Em meio a isso, o Facebook divulgou métricas para seis temas de infração de seus termos, com a devida explicação do motivo que aquele conteúdo é removido. Confira abaixo:

Violência gráfica

O Facebook diz que toma ação em conteúdos que "glorificam violência ou celebram o sofrimento ou humilhação de outros". O site diz que permite outros tipos de conteúdos gráficos para permitir conscientização de eventos atuais e problemas, mas pode cobrir o post com uma mensagem de alerta.

No primeiro trimestre de 2018, de 0,22% a 0,27% dos conteúdos vistos na rede social se encaixavam nesse termo - um aumento em relação aos de 0,16% a 0,19% no trimestre anterior. A rede social afirmou que agiu contra 3,4 milhões de conteúdos do tipo no primeiro trimestre do ano - 85,6% desse número antes de usuários reportarem.

Pornografia e nudez adultas

O Facebook afirma agir contra fotos e vídeos de nudez adultas (reais ou criadas digitalmente) e explícita ou implícita atividade sexual. A rede social diz ter exceções como educação sexual e amamentação, além de permitir fotografias de pinturas ou esculturas com nudez. O site, contudo, já se envolveu em polêmica por remover posts de mães amamentando ou de esculturas.

A rede social conta que só de 0,07% a 0,09% do conteúdo visto no site violava os padrão para nudez adulta, um pequeno aumento em relação ao último trimestre de 2017. Mesmo assim, foram removidos 21 milhões de conteúdos do tipo, 95,8% flagrados pelo próprio site antes de usuários reclamarem.

Propaganda terrorista

O site de Mark Zuckerberg aponta que não tolera qualquer conteúdo que "louve, apoie ou representa organizações terroristas". Os terroristas são identificados como "organizações ou indivíduos que se envolvam em atos premeditados de violência contra pessoas ou propriedades para intimidar uma população civil, governos ou organização internacional para atingir um fim político, religioso ou ideológico.

A rede social conta não ter dados sobre a parcela de conteúdo do Facebook que se encaixe nesses termos. Nos três primeiros meses do ano, foram tomadas ações contra 1,9 milhão de materiais do tipo - 99,5% deles sem que qualquer usuário reportasse.

Discurso de ódio

A definição do Facebook de discurso de ódio envolve ataques diretos contra pessoas baseados em alguma característica protegida - raça, etnia, origem, afiliação religiosa, orientação sexual, sexo, gênero, identidade de gênero, deficiência ou doença. Status de imigrantes também são protegidos. Esse é o termo que o site mais pena para identificar sem revisões humanas, já que precisa ser analisado o contexto.

Não há dados sobre a porcentagem de conteúdo visto no Facebook que seja discurso de ódio. No primeiro trimestre, 2,5 milhões de materiais do tipo foram submetidos a ações da rede social. Neste caso, apenas 38% foram removidos sem denúncias de usuários.

Spam

O Facebook define o spam em seu site como uma atividade não autêntica que é automatizada (por bots ou códigos, por exemplo) ou coordenada (usando contas múltiplas para espalhar e promover conteúdo). São incluídos spam comercial, propaganda falsa, fraude, links maliciosos, entre outros.

Ainda não existem métodos de avaliar a porcentagem de conteúdo do tipo no site, segundo a rede social. Mas nada menos que 837 milhões de spams sofreram ação do Facebook no primeiro trimestre, quase 100% deles sem a necessidade de usuários reportarem primeiro.

Contas falsas

Segundo o Facebook, contas falsas são criadas, em muitos casos, por pessoas má intencionadas que usam códigos ou bots com a intenção de espalhar spam ou conduzir atividades ilícitas como golpes. Por serem o ponto inicial para outra violação, a rede social trata casos do tipo como uma das prioridades no monitoramento.

De 3% a 4% dos usuários mensais do Facebook são contas falsas, o que faz o número ficar próximo de 88 milhões. No primeiro trimestre deste ano, foram desativadas 583 milhões de contas falsas - a maioria é identificada antes de ser totalmente criada. Cerca de 98,5% das contas desabilitadas foram identificadas sem denúncias de usuários.