Pedófilos agem no YouTube

O lado secreto e nada cor de rosa da maior plataforma de vídeos do mundo

Bruna Souza Cruz e Márcio Padrão Do UOL, em São Paulo iStock

São apenas crianças brincando na piscina e tomando sorvete. Provavelmente, você nem prestaria muita atenção. Mas na área de comentário do YouTube o vídeo vem acompanhado de frases como: "sexy", "que corpo bonito", "te quero".

Se você prestar bem atenção, verá ainda uma marcação de tempo (timestamp), que leva para cenas específicas, que servem para "ajudar" outros interessados a terem "acesso privilegiado" a algumas partes do conteúdo. Sim, partes que mostram os corpos das crianças ou a peça íntima revelada sem querer.

Estamos falando de uma rede de pedófilos que usa a seção de comentários da maior e mais acessível plataforma de vídeos do mundo para se alimentar, e que conta com a ajuda involuntária --mas de peso-- do algoritmo de recomendação de conteúdos.

iStock

Tsunami de denúncias

Que o YouTube abriga vídeos polêmicos não é bem uma novidade, por isso talvez você tenha até ouvido o burburinho sem prestar muita atenção. Mas, desde 17 de fevereiro, uma onda de denúncias e manifestações (#WakeupYouTube) explodiu.

Tudo começou quando o youtuber Matt Watson, do canal "MattsWhatItIs", divulgou provas de como a pedofilia acontece e é alimentada pelo algoritmo --até então sem que houvesse qualquer interferência do YouTube. Os comentários dos vídeos trazem links para pornografia infantil, sem que isso sequer seja notado pela plataforma.

Num vídeo de 20 minutos, com mais de 3 milhões de visualizações, ele mostra cenas triviais de crianças (inclusive brasileiras) cercadas de comentários pedófilos e marcações de tempo. E enfatiza que alguns dos vídeos citados inclusive recebem publicidade automática e estão sendo monetizados pela número de visualizações.

As marcas que tiveram anúncios mostrados no experimento (McDonald's, Nestlé, Lysol, Disney, Reese e outras) se retiraram da plataforma e deram início ao chamado de "adpocalypse", um trocadilho com os termos publicidade e apocalipse, em inglês.

  • Não é o primeiro...

    Em 2017, marcas financiaram inadvertidamente vídeos racistas ou terroristas com publicidade automatizada. Gigantes como Coca-Cola, Unilever e Johnson & Johnson ameaçaram retirar anúncios do YouTube se não recebessem garantias de que isso não se repetiria.

    Leia mais
  • ... 'adpocalypse'

    Em dezembro de 2018, investigação do jornal britânico "The Times" achou cem casos de pedófilos usando a transmissão ao vivo do YouTube. Alguns prometiam inscritos em troca de "tarefas" (como baixar as calça) direcionadas às crianças. Houve nova reação.

    Leia mais

Pedofilia em looping

O UOL Tecnologia refez os passos sugeridos por Watson, mas focando o Brasil.

No nosso experimento, colocamos na busca do YouTube palavras-chave que remetessem de alguma forma ao universo infanto-juvenil para observar que tipo de vídeo o algoritmo recomendaria. Usamos uma conta de email nova, criada minutos antes.

Um termo manjado é "biquíni". Vídeos de adolescentes aparecem misturados aos de adultos logo nas primeiras opções. Clicamos no primeiro da lista e continuamos a escolher uma das recomendações na barra lateral direita do site. No quarto vídeo dessa sequência, os comentários nocivos começaram a aparecer.

Então, com quatro cliques chegamos ao lado sombrio de um conteúdo que não está escondido nas profundezas da internet. Muito pelo contrário.

O caráter impróprio e de violência está no contexto e na intenção do uso desses vídeos por parte dos agressores. Pedofilia não é crime, mas um transtorno psiquiátrico. O crime é produzir pornografia ou aliciar sexualmente. Quando há esse recorte, é uma maneira de usar sexualmente a imagem da criança

Rodrigo Nejm, diretor de educação da Safernet

  • Perfis-fantasma

    Os comentaristas se escondem atrás de nomes falsos masculinos (alguns femininos), não publicam vídeos no perfil e ocultam qualquer informação pessoal.

  • Comportamento anormal

    O canal de uma criança de cerca de 12 anos tinha 240 inscritos, mas um único vídeo teve mais de 26 mil visualizações. Bem o que ela aparece experimentando biquínis.

  • Divulgam vídeos para pedófilos

    Em um dos casos, o comentarista abasteceu o próprio canal com cinco vídeos com cenas de crianças de biquíni. Ou seja, eles também propagam o material.

E aí, YouTube?

As regras de uso do YouTube proíbem a publicação de vídeos adultos e que menores de 13 anos usem a plataforma, seja como usuário ou como criador de conteúdo.

Mas, como você bem sabe, as regras não são rígidas e inquebráveis. Conteúdos produzidos e postados pelas crianças (que criam perfis mentindo a idade), com ou sem autorização dos pais, estão por todos os lados.

Eles não costumam ser problemáticos, vale dizer. Mas são vítimas de uma rede de exploração sexual infantil que se aproveita de brechas e que não está sendo brecada de forma ágil.

Alguns dias depois da denúncia de Watson, o YouTube, que pertence ao Google, anunciou medidas:

Tomamos medidas imediatas ao eliminar contas e canais, informando sobre atividades ilegais às autoridades e desabilitando comentários sobre dezenas de milhões de vídeos que incluem menores. (...) Entendemos que os comentários são uma maneira importante de os criadores de conteúdo se conectarem com seus públicos-alvo, mas também sabemos que isso é a coisa certa a fazer para proteger a comunidade do YouTube

YouTube

Coro de influencer

Por aqui, o caso foi divulgado pelo youtuber Felipe Neto, que fez um vídeo similar ao de Watson para denunciar a pedofilia e apontar que o YouTube sabia do problema.

Para ele, que tem umas das maiores audiências do YouTube brasileiro, as medidas anunciadas são insuficientes. Não basta ocultar ou reclassificar comentários, canais e internautas predatórios.

Eu sei que isso vai ser terrível, para mim e outros criadores, porque as empresas vão tirar anúncios, mas não dá para ficar calado. Não dá para simplesmente ignorar

Felipe Neto

E ele não está sozinho nesta batalha.

Ops, o algoritmo falhou

  • Conteúdo impróprio no YouTube Kids

    YouTube Kids é a versão da plataforma de vídeos para crianças. Recentemente uma pediatra dos Estados Unidos assistia a um desenho animado com o seu filho quando a animação foi interrompida por um homem que ensinava como cortar os pulsos para suicídio. O vídeo em questão foi retirado da plataforma, mas outros pais descobriram conteúdos com a mesma fórmula.

    Imagem: Acervo
  • Conteúdo sexual com heróis

    "Pregnant Elsa Kisses Spiderman Superheroes" é o título de um vídeo encontrado no YouTube por Roberta Ferec, mãe de três crianças, influencer de maternidade e coach de saúde. Ela mostrou para seus 13,7 mil seguidores as cenas de cunho sexual envolvendo super-heróis e princesas e que aparecem facilmente em buscas por "Elsa" ou "Spiderman".

    Imagem: Reprodução/YouTube
  • Joguinhos eróticos

    Outro vídeo encontrado por Ferec traz as irmãs do desenho Frozen se beijando por 54 segundos. No mesmo canal, você acha várias imagens de joguinhos infantis, enquanto nas recomendações da barra lateral aparecem vídeos adultos com temas como "3 perguntas 3 beijos" ou "uma resposta errada, uma peça de roupa tirada".

O que deve mudar?

Vejam as sugestões dos especialistas Carlos Affonso, diretor do Instituto de Tecnologia e Sociedade (ITS Rio) e blogueiro do UOL Tecnologia; Rodrigo Nejm, diretor de educação da Safernet; e Luiz Perez-Neto, professor do programa de pós-graduação de Comunicação e Consumo da ESPM.

  • Revisar o controle do uso do YouTube por menores
  • Verificar com mais rigor perfis de menores na própria plataforma
  • Identificar os responsáveis por contas que postam pornografia infantil e entregar para as autoridades
  • Aperfeiçoar os mecanismos de filtragem, levando em consideração o contexto das palavras-chaves
  • Aumentar a revisão humana de conteúdos que caem no filtro automatizado
  • Incentivar as pessoas a denunciar abusos na plataforma
  • Tornar o algoritmo mais rígido com comportamentos anormais (por exemplo, quando há centenas de comentários de usuários internacionais e anonimizados em um mesmo vídeo)
  • Não tomar decisões unilateralmente e escutar usuários, pais, professores, ONGs e o poder público, como o Ministério Público e o Ministério da Justiça, incluindo-os como parte da solução
Getty Images/iStockphoto

Como superar as armadilhas?

A responsabilidade do YouTube é evidente, mas os especialistas dizem que este é um problema grande demais para deixar as soluções apenas nas mãos da plataforma.

"Vai começar o festival da filtragem", explica Affonso. "Para caçar conteúdos que possam induzir a disseminação de pornografia infantil, a empresa deve aumentar o rigor dos seus mecanismos de filtragem, removendo não apenas vídeos ostensivamente proibidos, mas também aqueles que o algoritmo ache que sejam ilícitos."

Nisso, mira a pornografia e acerta o Pokemón Go. Contas dedicadas ao jogo tiveram vídeos removidos, porque falam em combat points (CP), termo em inglês para pontos de combate. CP é também a sigla para child porn, ou seja, pornografia infantil.

"Isso mostra como o YouTube passou a deixar que os algoritmos façam a limpeza da plataforma sem qualquer noção de contexto ou revisão humana antes da remoção e do cancelamento de contas", diz o advogado.

"Se qualquer ser humano (e nem precisa ser um treinador de Pokémon) visse cinco segundos do vídeo entenderia que o canal não era dedicado à pornografia infantil", complementa.

Para Perez-Neto, é um "equívoco" encontrar um único culpado para o problema. Ele defende que o YouTube atue com mais rigor não apenas no algoritmo, mas em suas práticas. "O Instagram conseguiu limpar parte da pornografia com bots e codificação. Mas é preciso muito cuidado para não cair nas armadilhas que o Facebook tem caído [de nunca acertar a mão na hora de censurar conteúdos]. Isso traz riscos para a liberdade de expressão", argumenta.

Rodrigo Nejm, da Safernet, também enfatiza a ampliação da revisão humana para entender contexto e intenção dos comentários sem ferir a liberdade de expressão. "Além da maior conscientização dos usuários, reportando perfis de infratores e de menores de 13 anos", coloca.

Para ajudar a proteger crianças e adolescentes, a influencer de maternindade Roberta Ferec separou algumas dicas importantes (que podem ser vistas logo abaixo).

Como mãe, ela decidiu estudar o impacto da tecnologia e a importância do equilíbrio digital, principalmente na vida de crianças.

Dicas para proteger crianças

  • De olho em tudo

    Os adultos devem deixar claro quais conteúdos são aceitáveis e o que envolve um conteúdo impróprio. O diálogo é essencial para que eles aprendam a identificar vídeos não recomendados para elas.

  • Regras claras

    Determine em que lugar da casa eles poderão consumir os vídeos da internet. Isso facilita a supervisão. Além disso, o tempo de utilização dos aparelhos eletrônicos precisa ser estabelecido e deve ser cumprido.

  • Limite o acesso

    Desabilite o recurso de vídeos recomendados em sequência do YouTube. Quando estiver vendo um vídeo qualquer no app ou no site do YouTube, procure por um botão chamado "Reprodução automática" e o desligue.

  • Escolha o que eles vão assistir

    Faça uma playlist exclusiva para a criança com base nos vídeos que você considera adequados. De tempos em tempos, adicione vídeos novos. Sempre que possível, cheque se a playlist continua ok.

  • YouTube Kids é opção, mas cuidado

    O YouTube Kids, app da empresa para crianças, tem uma interface mais colorida e filtra conteúdo para maiores. Mas é preciso ter muito cuidado: a ferramenta é bem limitada em suas configurações e deixa passar coisas inadequadas.

  • Buscas bloqueadas

    A busca no YouTube Kids pode ser desativada para que a criança não consiga fazer pesquisas por outros conteúdos. Clique no ícone circular no topo esquerdo da tela principal do Kids, depois acesse as configurações, clique no perfil da criança e desative a opção "permitir pesquisa".

Denuncie

Nesta página, é possível qualquer usuário denunciar conteúdo inadequado à equipe do YouTube. A empresa, inclusive, reforça que as denúncias são fundamentais para que a plataforma melhore.

O conteúdo denunciado é avaliado, mas não removido logo após a denúncia. Os inadequados para o público jovem podem receber restrição de idade, outros são mesmo apagados. A reportagem já denunciou vídeos, canais e perfis que julgou ter colocado crianças e adolescentes em risco.

No Brasil, a ONG Safernet tem seu próprio canal de denúncia, o denuncie.org.br, e o canaldeajuda.org.br, para orientar pais e educadores.

Topo