PUBLICIDADE
Topo

Para onde o mundo vai

ANÁLISE

Texto baseado no relato de acontecimentos, mas contextualizado a partir do conhecimento do jornalista sobre o tema; pode incluir interpretações do jornalista sobre os fatos.

Imagens de satélites falsas: por que militares se preocupam com deepfakes

Getty Images
Imagem: Getty Images
Conteúdo exclusivo para assinantes
Daniel Schultz, Monica Matsumoto, Shridhar Jayanthi, Guilherme Pimentel , Luiz Gustavo Martins e Cristina Schultz

sobre os colunistas

Daniel Schultz é cientista, professor de microbiologia e membro do núcleo de ciências computacionais em Dartmouth (EUA). Estuda a dinâmica dos processos celulares, com foco na evolução de bactérias resistentes a antibióticos. É formado em engenharia pelo ITA, doutor em química pela Universidade da Califórnia San Diego e pós-doutorado em biologia sistêmica em Harvard. Possui trabalhos de alto impacto publicados em várias áreas, da física teórica à biologia experimental, e busca integrar essas várias áreas do conhecimento para desvendar os detalhes de como funciona a vida ao nível microscópico.

Monica Matsumoto

Monica Matsumoto é cientista e professora de Engenharia Biomédica no ITA. Curiosa, tem interesse em áreas multidisciplinares e procura conectar pesquisadores em diferentes campos do conhecimento. É formada em engenharia pelo ITA, doutora em ciências pela USP e trabalhou em diferentes instituições como InCor/HCFMUSP, UPenn e EyeNetra.

Shridhar Jayanthi

Shridhar Jayanthi é agente de patentes com registro no escritório de patentes norte-americano (USPTO). Tem doutorado em engenharia elétrica pela Universidade de Michigan (EUA) e diploma de engenheiro de computação pelo ITA. Atualmente, trabalha com empresas de alta tecnologia para facilitar obtenção de patentes e, nas (poucas) horas vagas, é estudante de problemas na intersecção entre direito, tecnologia e sociedade. Antes disso, teve uma vida acadêmica com passagens pela Rice, MIT, Michigan, Pennsylvania e no InCor/USP, e trabalhou com pesquisa em áreas diversas da matemática, computação e biologia sintética.

Guilherme Pimentel

Guilherme Pimentel é pesquisador no instituto de física da Universidade de Amsterdã na Holanda, onde trabalha com novas teorias para explicar a expansão acelerada do Universo. Possui graduação em engenharia eletrônica, mestrado em física pelo ITA (Instituto Tecnológico de Aeronáutica) e doutorado em física na Universidade de Princeton. Sua pesquisa é focada em cosmologia e física de partículas.

Luiz Gustavo Martins

Luiz Gustavo Martins é engenheiro químico, mestrado em física pela Universidade Federal de Minas Gerais (UFMG). Atualmente é doutorando no MIT (Massachusetts Institute of Technology), na área de física do estado sólido experimental, onde trabalha espectroscopia óptica em materiais bidimensionais (com poucos átomos de espessura) e física de altas pressões.

Cristina Schultz

Cristina Schultz é oceanógrafa formada pela USP (Universidade de São Paulo), com mestrado em meteorologia pelo INPE (Instituto Nacional de Pesquisas Espaciais) e doutorado em oceanografia química pelo WHOI (Woods Hole Oceanographic Institution) e o MIT (Massachusetts Institute of Technology). Atualmente é cientista visitante na Universidade de Princeton, no NOAA (National Oceanic and Atmospheric Administration) e no Geophysical Fluid Dynamics Laboratory (Laboratório de Dinâmica de Fluidos Geofísicos). Sua pesquisa combina o uso de dados coletados em cruzeiros oceanográficos, dados de satélite e modelos climáticos para entender as consequências das mudanças climáticas na química do oceano e no ecossistema marinho.

Monica Matsumoto

07/07/2021 04h00

Muitas vezes não nos damos conta, mas nem toda imagem é real. E é admirável como consumimos informação através de imagens digitais. Chamadas de deepfakes, imagens falsas podem ser criadas por inteligência artificial.

Aos nossos olhos, algumas deepfakes são quase imperceptíveis. É possível, por exemplo, criar rostos de pessoas que não existem, fazer vídeos com trocas de rosto e criar falas sintéticas. E sabia que imagens de satélite também podem ser alteradas por deepfake?

Confiamos tanto nas imagens geoespaciais que essa dúvida não passa pela nossa cabeça. Um exemplo de como imagens de satélite estão presentes no nosso dia a dia é o mapa criado pelo Google, dados que servem como base de muitos navegadores de GPS. Eles nos informam caminhos e trânsito na cidade. Mas o que aconteceria se uma parte do mapa fosse alterada?

Missões militares

As aplicações militares são mais sensíveis. Os mapas geoespaciais são usados para o planejamento de missões como lançamento de míssil e operações de drones. Os alvos podem ser prédios, pontes e estradas. Agora, imagine que o edifício alvo na verdade não existe e a missão tem que ser abortada quando o drone chega ao local, ou uma ponte foi estrategicamente escondida na imagem e o alvo real nunca será encontrado. São possibilidades que o avanço da tecnologia deepfake nos faz pensar.

Recentemente, foi publicado um trabalho de Bo Zhao da Universidade de Washington e colegas sobre deepfakes em imagens de satélite. Baseado em mapas das cidades de Tacoma (WA, EUA), Seattle (WA, EUA) e Beijing (China), imagens fake foram simuladas com rede de inteligência artificial CycleGAN, do tipo GAN (rede adversária geradora, tradução livre de Generative Adversarial Network). Com essa rede neural, os cientistas foram capazes de criar elementos geográficos realísticos, mas que misturavam elementos urbanos de cidades diferentes, criando cenas inéditas (e não reais).

É possível saber se é fake ou não é?

Aos olhos de humanos, esses novos elementos de imagem passam despercebidos no mapa, entretanto ainda são possíveis de serem detectados se houver um contra-algoritmo capaz de apontar a fraude. As cenas fake carregam características de contraste em regiões da imagem, canais de cores usados, características de sensores usados e compressão de dados, que as tornam detectáveis, como se houvesse uma assinatura na imagem para essa fraude.

O pesquisador Zhao usou um algoritmo que detectou cenas fake com até 94% de precisão. Mesmo assim, é bom lembrar que há imagens identificadas como fake, mas que não são. A não ser que sejam elementos muito grosseiros na imagem, apenas algoritmos mais avançados conseguem identificar padrões diferentes do real. Outro desafio é que, mesmo assim, eles precisam evoluir à medida que os geradores de imagem fake evoluem.

Essa é uma área de grande atenção dos especialistas militares.

Mudanças no clima e desmatamento

Outra aplicação sensível das imagens de satélite, além da militar, são os eventos relacionados ao clima, aos desastres naturais ou às alterações provocadas pelo homem. Um exemplo é o avanço do desmatamento na Amazônia causado por queimadas, que pode ser facilmente detectado por satélite. Mas há como acobertar por algum tempo esse crime ambiental se as imagens foram forjadas? Assim, fiscais que se baseiam nesse tipo de imagem podem perder o timing de ação.

Além dos algoritmos que detectam deepfake, pelo menos existem outras formas de perceber alterações. Uma delas é acompanhar uma área com fotos ao longo do tempo. Existem redes de satélites que tiram fotos do globo todo ao menos uma vez ao dia, como a constelação de mais de 200 cubesats (satélites-cubo) da empresa Planet Labs. Dessa forma, as mudanças são perceptíveis acompanhando as alterações diárias.

Opinião pública

Uma vez que possa existir dúvidas se uma imagem de satélite é real ou não, pode existir um jogo de verdade ou mentira. Um exemplo são as imagens de queimadas na floresta Amazônica que, apesar de verdadeiras, podem ser questionadas e tidas como falsas diante acusações de que elas foram fraudadas. A dúvida divide o público e cada lado acredita em sua verdade.

Uma vantagem é que as imagens de satélite são mais difíceis de serem obtidas, visto que vêm do espaço. Assim, pode existir um controle maior do que é publicado pois são imagens proprietárias. De qualquer forma, é preciso ficarmos atentos ao que a tecnologia deepfake tem possibilitado.

Leitura crítica

Mesmo que métodos e algoritmos possam detectar a quebra de integridade de uma imagem feita com deepfake, vivemos em um novo momento de pós-verdade que um fato ou evidência não é tão importante quanto a interpretação que damos a ele. A leitura delas vai além do que enxergamos e passam por nossas crenças e sentimentos.

Uma forma de fazer uma leitura crítica de imagens digitais foi proposta por Lackovic, e a leitura atenta passa por ver a imagem, identificar os elementos que ela contém e quais as interpretações que estes elementos incitam juntamente com a mensagem associada. Se a mensagem passada corrobora com crenças e sentimentos de uma população, ela amplifica aquilo que se acredita e valida um discurso. Esse é um tema e reflexão para explorar em novos posts.

** Este texto não reflete, necessariamente, a opinião do UOL