Você não sabe, mas estes golpes usam IA para enganar você; aprenda a evitar

Da ligação à mensagem de texto via WhatsApp, os golpes financeiros vêm se aperfeiçoando a cada dia. E a nova abordagem da vez é usar IA (Inteligência Artificial) para ludibriar as vítimas, já que a estratégia dá uma cara mais profissional às fraudes.

Os artifícios vão de erros básicos de português, uma conversa mais humanizada e rostos e vozes falsas da vítima ou de conhecidos criados artificialmente — o golpe da casa falsa é um exemplo disso.

A IA acaba sendo uma 'automatizadora' de tarefas. Construir mensagens elaboradas ficou mais fácil com a chegada da AI. A adoção dessa tecnologia resultou em um rápido crescimento dos golpes de phishing no Brasil em 2023 Fábio Assolini, diretor da Equipe Global de Pesquisa e Análise da Kaspersky para a América Latina

No phishing, o cibercriminoso envia email, SMS ou mensagem de WhatsApp como isca. A mensagem geralmente contém um link malicioso para a vítima clicar e ter os dados sequestrados ou até mesmo o aparelho invadido. Tilt já mostrou como emails já estão com linguagem menos tosca e mais convincente, graças ao ChatGPT.

As IAs podem ajudar a deixar os golpes mais sofisticados à medida que quem estiver usando esse tipo de tecnologia souber requisitar os dados certos para burlar sistemas legítimos de proteção e driblar algumas barreiras de segurança, tirando proveito do fator humano nos casos de ataque de engenharia social Flavio Silva, líder técnico da Trend Micro, empresa de cibersegurança

Como IAs são usadas para golpes financeiros

Estima-se que atualmente existam pelo menos 11 mil IAs catalogadas para diferentes funções, que vão desde a produção de simples textos à criação de vídeos mais sofisticados. Peças das campanhas de Sérgio Massa e Javier Milei, na Argentina, são exemplos de produção audiovisual realística.

A pedido de Tilt, as empresas Domper e Sauter, referências em soluções de IAs generativas (aquelas capazes de criar conteúdo), apontam como as essas ferramentas podem ser usadas para golpes:

Reconhecimento facial: através de uma imagem da vítima, cibercriminosos podem reproduzir o rosto e usá-lo para burlar o reconhecimento facial, prática conhecida como golpe da cara falsa;

Continua após a publicidade

Criação de áudio: o golpe do parente pedindo dinheiro no WhatsApp ganhou nova roupagem. Agora, cibercriminosos criam áudios falsos com a voz da vítima a partir de qualquer exemplo de sua voz — podem até ser mensagens de voz obtidas em um WhatsApp clonado;

Captura de impressões digitais por meio de dispositivos falsos: criminosos podem usar tecnologia de impressão 3D para criar réplicas de alta qualidade de impressões digitais;

Phishing: mensagens falsas com link malcioso via e-mail, SMS ou redes sociais já são prática comum; a IA agora é empregada para personalizar essas mensagens e torná-las mais convincentes e direcionadas.

Fábio Assolini, da Kaspersky, ressalta que a predisposição de pessoa se tornar vítima de golpes do tipo está relacionada ao comportamento nas redes sociais. Foi o caso da designer de arte Juliana Brichesi, de 46 anos, que teve voz e expressões faciais clonadas por IA em vídeo no qual oferece falsamente investimentos via pix.

Se tiverem uma pequena amostra de áudio da sua voz, [os cibercriminosos] podem ligar para seus parentes reproduzindo exatamente a mesma voz e maneira de falar. Principalmente na dark web, esse tipo de serviço já é encontrado com facilidade e, por uma boa quantia financeira, já pode ser comprado por criminosos Fábio Assolini, Kaspersky

Como saber se virei vítima de golpe por IA

Como as IAs conseguem adicionar elementos capazes de dar mais credibilidade às abordagens dos golpes virtuais, as vítimas acabam sendo enganadas com mais facilidade. Ainda assim, é possível detectar falhas no conteúdo gerado por robôs.

Continua após a publicidade

Como em golpes tradicionais, é preciso manter a calma e tentar identificar falhas em expressões, tonalidades e até as mais grosseiras. É crucial identificar a situação de um golpe para conseguir sair ou buscar um apoio Ygo Leite, diretor de tecnologia da Sauter

O diretor de tecnologia da Dompa, César Rodrigues, diz que "há alguns sinais que podem acender o alerta e indicar que você pode estar sendo vítima de um golpe por IA". O especialista elenca os seguintes sinais:

Personalização excessiva: mensagens ou textos altamente personalizados de um remetente desconhecido podem indicar uso da IA para coleta e processamento de dados;

Linguagem estranha: caso o golpista não se dê ao trabalho de revisar, as traduções das produções em texto criadas por IA em inglês podem parecer inconsistentes ou até sem sentido;

Comunicação repentina de fontes desconhecidas: desconfie se você receber mensagens de bot via WhatsApp de forma repentina, ou seja, sem que tenha se cadastrado naquele serviço; pode ser uma estratégia para coletar seus dados ou obter algum pagamento;

Alertas de contas duplas ou atividades ilegítimas: notificações sobre atividades suspeitas ou contas duplicadas associadas ao seu nome podem indicar que alguém está tentando fazer uma invasão coordenada por IA em alguma conta sua.

Deixe seu comentário

Só para assinantes