Topo

Como inteligência artificial criou 'nudes' falsos de mais de 100 mil mulheres compartilhados em redes

De acordo com relatório, mais de 100 mil mulheres tiveram suas fotos alteradas digitalmente para parecerem imagens de nudez - iStock
De acordo com relatório, mais de 100 mil mulheres tiveram suas fotos alteradas digitalmente para parecerem imagens de nudez Imagem: iStock

Patrick Clahane - BBC News

21/10/2020 06h29

Robô digital no Telegram 'tira a roupa' de fotos comuns de mulheres postadas em redes sociais; segundo relatório, criação e compartilhamento de 'deep fakes' está aumentando.

Nudes falsos, criados a partir de fotos originais postadas em redes sociais, de mais de 100 mil mulheres estão sendo compartilhadas online, segundo um relatório recente.

As roupas são removidas digitalmente através de ferramentas de inteligência artificial; depois, as imagens falsas são espalhadas pelo aplicativo de mensagens Telegram.

Segundo o relatório, da empresa Sensity, alguns dos alvos "pareciam menores de idade" e a tecnologia usada é do tipo deepfake bot.

Deepfakes são imagens e vídeos baseados em um modelo real e depois alterados em computador. Um de seus usos tem sido a criação de videoclipes pornográficos falsificados envolvendo celebridades.

Mas o presidente-executivo da Sensity, Giorgio Patrini, afirma que a tendência de uso de fotos corriqueiras de pessoas comuns é relativamente nova.

"Ter uma conta nas redes sociais com fotos abertas ao público é o suficiente para que qualquer pessoa se torne um alvo", alertou.

Robô no Telegram

Como inteligência artificial criou 'nudes' falsos de mais de 100 mil mulheres compartilhados em redes:  - Sensity - Sensity
Ferramenta com robô estaria dentro de aplicativo de mensagem
Imagem: Sensity

A alteração é feita por um robô digital (bot) movido a inteligência artificial que opera dentro de um canal de mensagens privadas do Telegram. Os usuários podem enviar ao robô a foto de uma mulher, cujas roupas são retiradas digitalmente em minutos, sem nenhum custo.

A BBC testou esta ferramenta, usando imagens com consentimento de participantes, e nenhuma foto ficou completamente realista— uma delas colocou o umbigo de uma mulher quase no meio do tórax.

Um aplicativo como esse chegou a ser banido no ano passado, mas acredita-se que existam versões derivadas em circulação.

Um dos administradores do serviço, identificado apenas como "P", afirmou: "Não me importo muito. É entretenimento e não leva a violência."

"Existem guerras, doenças, muitas outras coisas ruins que são prejudiciais no mundo."

"Ninguém vai chantagear ninguém com isso, já que a qualidade não é realista."

"P" também diz que a equipe analisa antes quais fotos serão publicadas.

"Quando vemos menores (de idade), bloqueamos o usuário para sempre", relata.

Mas a decisão de compartilhar a foto com outras pessoas é da pessoa que usou o robô para criá-la, explica.

Procurado pela reportagem para se posicionar, o Telegram não forneceu respostas.

'Conteúdo pedófilo'

A Sensity relatou que, entre julho de 2019 e 2020, aproximadamente 104.852 mulheres tiveram suas imagens alteradas e compartilhadas publicamente.

A investigação apontou que algumas das fotos pareciam retratar menores de idade, "sugerindo que alguns usuários usavam o robô principalmente para gerar e compartilhar conteúdo pedófilo".

A empresa afirmou ainda que o robô foi divulgado por publicidade na rede social russa VK, e segundo dados, a maioria dos usuários era da Rússia e de países da antiga União Soviética.

A VK afirmou que "não tolera esse tipo de conteúdo ou links na plataforma e bloqueia as comunidades que os distribuem."

"Muitos desses sites ou aplicativos não se escondem ou operam no submundo, porque não são rigorosamente proibidos", explica Giorgio Patrini, do Sensity.

"Até que isso aconteça, temo que só vá piorar."

Os autores do relatório dizem que compartilharam todas as suas descobertas com o Telegram, VK e até polícias— mas com pouca repercussão.

Nina Schick, autora do livro Deep Fakes and the Infocalypse, diz que os criadores de deepfakes estão em todo o mundo e que as legislações estão "tentando se atualizar" diante da tecnologia.

"É apenas uma questão de tempo até que o conteúdo se torne mais sofisticado. O número de vídeos pornôs falsos parece estar dobrando a cada seis meses", disse ela.

"Nossos sistemas legais não são adequados para essa questão. A sociedade está mudando mais rápido do que podemos imaginar devido a esses avanços tecnológicos exponenciais e nós, como sociedade, não decidimos como regulamentar isso."

"É devastador para as vítimas de pornografia falsa. A vida delas pode virar completamente do avesso, pois elas se sentem violadas e humilhadas."

No ano passado, o Estado americano da Virgínia se tornou um dos primeiros lugares a proibir os deepfakes.

A atual lei do Reino Unido sobre imagens falsas de nudez foi recentemente caracterizada como "inconsistente, desatualizada e confusa", segundo uma pesquisa universitária recente.

Apesar do progresso em questões como pornografia de vingança, "ainda existem muitas lacunas gritantes na lei", diz Lucy Hadley, da organização em prol das mulheres Women's Aid.

Embora essas estatísticas mostrem o quão disseminadas as imagens falsas podem ser, atualmente elas não configuram um crime específico.