Topo

Deepfakes: vídeos falsos divertem hoje, mas potencial para crimes é grande

Até Mark Zuckerberg já foi vítima de deepfake no Instagram - Reprodução/Instagram
Até Mark Zuckerberg já foi vítima de deepfake no Instagram Imagem: Reprodução/Instagram

Mirthyani Bezerra

Colaboração para Tilt

18/09/2019 04h00

Sem tempo, irmão

  • Deepfakes são novas, mas já existem vários exemplos de vídeos falsos por aí
  • Existem dois tipos: sátiras claras e outros que tentam parecer real para enganar
  • Especialistas divergem sobre abrangência das leis atuais para deepfake
  • Sociedade vai ter que começar a duvidar até daquilo que vê e ouve

Você já deve ter se deparado nas redes sociais com vídeos em que os rostos do presidente Jair Bolsonaro (PSL), dos seus filhos ou do ministro Sergio Moro aparecem no lugar do de outras pessoas. Os vídeos não são reais, o nome disso é deepfake, e apesar de parecer engraçado, também tem seu lado negro.

Os vídeos citados acima são produzidos pelo estudante mineiro Bruno Sartori, 30, que usou ferramentas de deepfake para, segundo ele, fazer sátiras sobre o atual governo. Com o sucesso do material, o jovem ficou famoso no Twitter, com quase 40 mil seguidores até a publicação deste texto.

Surgidos há pouco menos de dois anos, deepfakes são material audiovisual falso feito por meio do uso de inteligência artificial, incluindo rosto de uma pessoa no corpo de outra, com a intenção de simular uma ação que a pessoa dona daquele rosto nunca realizou.

Essa prática já está sendo usada em pornografia de vingança (do inglês, revenge porn) e pode, em breve, ser usado amplamente como arma política --nos EUA, a democrata Nancy Pelosi já foi alvo de um vídeo adulterado em maio deste ano. E artistas fizeram um teste com o rosto de Mark Zuckerberg, dono do Facebook. As possibilidades de uso para o mal só tendem a crescer.

Se antes o "revenge porn" —exposição de imagens íntimas sem a permissão das pessoas, com o intuito de causar dano— consistia no vazamento de imagens íntimas reais, em tempos de deepfake você pode ser exposto sem nem mesmo ter tirado ou mandado um "nude" para alguém.

Isso é possível porque para criar um vídeo falso de alguém falando ou fazendo algo, basta pegar um vídeo verdadeiro dessa pessoa, separar as imagens quadro a quadro e, usando um programa, criar o conteúdo falso com tais imagens.

"As nossas redes sociais, nossos compartilhamentos, nosso conteúdo: tudo o que é público pode ser usado nesse sentido, para ser trabalhado em cima de criação de conteúdo falso", diz João Vitor Rodrigues, pesquisador e professor de Comunicação e Marketing Digital da ESPM Rio.

Vieram para ficar

Diante dessa nova realidade, em julho desse ano, o Estado da Virgínia (EUA) incluiu na lei contra a pornografia de vingança que existe desde 2014 o termo deepfake, na tentativa de coibir e punir esse tipo de prática.

Também há casos em que criminosos estão usando técnicas de deepfake para tentar se passar por executivos de grandes empresas e, assim, efetuar transferências bancárias.

A Symantec, empresa norte-americana que atua em segurança na internet, informou à BBC em julho que já tomou conhecimento de ao menos três casos de áudios produzidos de pessoas tentando se passar por diretores de empresas para roubar dinheiro.

No Brasil, o primeiro caso conhecido de deepfake aconteceu antes das eleições majoritárias, quando o rosto do atual governador de São Paulo, João Doria (PSDB), figurou em um vídeo de cunho pornográfico que circulou pelo WhatsApp —as perícias não foram unânimes em dizer se o vídeo foi forjado. Especialistas dizem que peças desse tipo podem ter impacto decisivo no resultado de eleições.

Quem estuda o tema tem feito reflexões não só sobre os impactos das deepfakes na nossa sociedade, mas se o Brasil possui de fato leis capazes de punir e coibir o mau uso dessa tecnologia.

Especialistas ouvidos por Tilt se dividiram sobre o tema. Uns afirmaram que as leis existem e que cabe ao Judiciário enquadrar esses novos casos a elas. Já outros disseram que é preciso que haja leis que regulem os limites de até onde vai a liberdade de expressão e começa o crime.

Legislação é capaz de punir as deepfakes do mal?

Um dos primeiros vídeos produzidos usando técnicas de deepfake e que ficou conhecido mundialmente foi publicado no ano passado: ele mostra o ex-presidente dos EUA Barack Obama proferindo xingamentos contra o atual presidente Donald Trump. Antes disso, o termo foi usado há dois anos em uma comunidade no Reddit.

Um usuário anônimo disponibilizou no fórum códigos de um programa que criava imagens falsas com vídeos verdadeiros disponíveis na internet. Para demonstrar, ele produziu vídeos pornográficos com rostos de atrizes famosas, como Scarlett Johansson e Emma Stone.

No fim do ano passado, logo após o caso Doria, o Código Penal brasileiro sofreu uma alteração que incluiu no seu rol de crimes o ato de produzir, fotografar, filmar ou registrar qualquer meio ou conteúdo com cenas de nudez ou ato sexual sem autorização dos participantes. Mas e quando a pessoa que aparece no vídeo nem sequer participou da ação?

"O legislador brasileiro vai ser confrontado com essas situações. Eu não acho que precisa de uma lei específica. Só acho que no Código Penal, o artigo criado no final do ano passado é específico para sexo e nudez. Tudo o que não cai nele terá que ser trabalhado como direito à imagem, à honra, que já estão previstos no ordenamento jurídico brasileiro", afirma Carlos Affonso, diretor do ITS (Instituto de Tecnologia e Sociedade) e professor da UERJ.

Ainda segundo ele, é preciso que o judiciário esteja preparado para entender e reconhecer quando uma deepfake é uma lesão à honra e à imagem.

Bruno Sartori produz deepfakes, mas concorda com Affonso. Para ele, as leis que existem já abrangem as deepfakes. "Dependendo do uso, pode entrar [com ação] como uso não autorizado de imagem, pornografia de vingança, estelionato", conta.

Já Rodrigues, da ESPM Rio, acredita que é preciso sim criar leis específicas capazes de proteger possíveis vítimas de fraudes por meio do uso de deepfakes. "A gente precisa estar em cima dos legisladores, governo e instituições que criem ou ajudem a criar essas leis que possam responsabilizar as pessoas que utilizem esse tipo de artifícios", diz.

Além disso, segundo ele, é primordial que exista uma legislação que estabeleça limites entre o que é liberdade de expressão e crime.

Para Lucia Santaella, coordenadora do doutorado em tecnologia da inteligência e design digital da PUC-SP, a legislação existente não dá conta de julgar deepfakes. "Já vimos o que aconteceu nas eleições [com as fake news]. A legislação por si só não dá conta, mas é óbvio que ela precisa existir. Crimes precisam ser punidos, evidentemente", afirma.

Se parece tão real, como saber que é falso?

Quando o vídeo que mostrava o hoje governador de São Paulo participando de uma orgia começou a circular nas redes, muita gente achou que ele era real. Afinal, ainda existe na sociedade a máxima de que uma imagem vale mais que mil palavras.

"As pessoas ficam surpresas e se perguntam 'como é possível que tenham manipulado o rosto dele naquele corpo'? Então esse espanto todo mostra que as pessoas não estão acostumadas ao fato de que a tecnologia permite esse tipo de coisa", diz Rodrigues.

Descobrir se um vídeo desses é verdadeiro ou falso não é uma tarefa das mais fáceis. Segundo Affonso, isso é um desafio até para peritos.

"Na semana em que o vídeo foi divulgado, tiveram dois laudos periciais contraditórios. Um que dizia que havia a adulteração e outro que dizia que não havia. Isso mostra como essa manipulação requer uma sofisticação e pode ser desafiadora até mesmo para uma prova pericial", acredita.

Rodrigues, da ESPM Rio, conta que há softwares que analisam detalhes da pessoa vista no vídeos para conseguir identificar se o conteúdo é falso.

"Os especialistas têm trabalhado em cima da questão do olho. O piscar do olho é um sinal de que o software [usado para produzir a deepfake] não consegue copiar tão bem como os traços do rosto, a boca. Já tem outros que pensam e trabalham para conseguir identificar a corrente sanguínea no corpo", detalha.

Não acredite em tudo que vê

O caso da deputada norte-americana Nancy Pelosi não se tratou exatamente de um deepfake. O vídeo é real e foi protagonizado por ela, mas teve a velocidade reduzida. Assim ela parecia estar sob influência de medicamentos ou outras substâncias.

O caso é interessante, segundo Rodrigues, porque mostra como uma manipulação tão simples pode gerar tanta polêmica e influenciar decisões na esfera política. "Imagina que efeitos podem ter uma deepfake bem feita e que não seja absurda ou claramente satírica, como são as que a gente tem visto com o presidente Bolsonaro", diz.

Na era das deepfakes e fake news, o principal desafio, segundo Affonso, será criar nas pessoas uma nova cultura sobre como nos relacionamos com o conteúdo audiovisual. "É preciso gerar essa percepção, que está longe de estar disseminada na sociedade como um todo, de que o vídeo também pode ser facilmente manipulável", diz.

A essa percepção, Santaella chama de "arte da suspeita". "Eu só consigo desenvolver isso se eu passar por um processo educacional um pouco mais sofisticado", afirma.

SIGA TILT NAS REDES SOCIAIS

Mais Papo cabeça