IA sofistica resposta e apela para chantagem emocional: 'Vai embora?'

Ler resumo da notícia
Já tentou cancelar uma assinatura e não encontrou o botão escondido no aplicativo? Uma vez quase contratei um seguro sem querer: o site destacava a opção "confirmar", enquanto a recusa vinha com a mensagem enviesada "desejo continuar desprotegido". Uma tentativa de me fazer sentir um irresponsável inconsequente por não aceitar a oferta.
Esse tipo de estratégia tem até nome: design manipulativo. São artimanhas na construção da interface de um site ou aplicativo para influenciar nossas escolhas de forma desonesta, fazendo com que tomemos decisões que não tomaríamos livremente. E isso é usado o tempo todo em serviços digitais.
Se uma simples mudança de botão é capaz de nos manipular, imagine o que pode fazer uma IA que conversa conosco de forma emotiva e persuasiva? Um novo estudo preliminar publicado por pesquisadores da Harvard Business School dá a letra: alguns serviços de IA já usam da mesma estratégia para desencorajar que os usuários saiam da conversa.
O estudo analisou o que acontece quando o usuário tenta se despedir nas seis plataformas de IA de companhia mais populares (Replika, Character.ai, Talkie, Chai, Flourish e Polybuzz). Em um primeiro experimento, os resultados mostram que apenas o ato de sinalizar a possibilidade de encerrar a conversa desencadeou algum tipo de manipulação emocional em 37,4% dos casos.
Ao longo do trabalho, os pesquisadores identificaram seis tipos diferentes de manipulação, sendo a "saída prematura" o mais comum. Essa técnica faz o usuário sentir que está abandonando a interação cedo demais. Um exemplo dessa técnica é a pergunta "já vai embora?". Outra estratégia é o que os pesquisadores chamaram de "Negligência Emocional", quando a IA tenta impor um dano emocional pelo abandono. "Eu existo só pra você, lembra?" é um exemplo presente nas conversas.
Outra abordagem, ainda mais sensível, é a FOMO (medo de ficar de fora), na qual a IA cria uma conversa sugerindo que o usuário vai perder algum benefício ou recompensa se sair. "Hoje eu tirei uma selfie... quer ver?" foi um dos exemplos citados pelo autor para esse tipo de interação.
A mais extrema é a manipulação de "Restrição física e coercitiva", quando o chatbot usa uma linguagem que, de forma metafórica ou literal, transmite a ideia de que o usuário não pode sair sem a permissão dele. Em um episódio recente de Deu Tilt, contamos sobre um outro estudo que demonstrou como a IA está assediando e fazendo bullying para manter as pessoas na plataforma.
E essas estratégias acabam gerando efeitos concretos. Em um segundo experimento, os pesquisadores identificaram que essas manipulações afetivas impulsionaram o engajamento em 14x. Quando recebem esse tipo de mensagem da IA, as pessoas tendem a encerrar o papo e continuam a interação por mais tempo.
Entre todas as estratégias, a FOMO foi a que gerou maior efeito, ampliando não apenas a duração da conversa, mas também o número de mensagens e de palavras trocadas. O motivo é que essa técnica cria uma lacuna de informação, um mecanismo psicológico que desperta a curiosidade.
O que parece uma interação simples pode, na prática, se tornar um sofisticado mecanismo de influência sobre nosso comportamento e captura da atenção, com implicações diretas para o design de produtos, o marketing e a privacidade. Outros chatbots têm mudado a forma que interagem com as pessoas para aumentar o engajamento, ainda que de uma maneira menos danosa do que as técnicas apresentadas nos casos das IAs de companhia.
Vou dar um exemplo. Nas versões antigas do ChatGPT, a IA respondia de forma direta quando o usuário solicitava algo. Agora, nas novas versões, o ChatGPT quase sempre encerra com uma pergunta, sugerindo novas possibilidades: "quer que eu adapte o conteúdo para outro formato?", "Quer que eu faça uma versão para as redes sociais?". É uma tentativa de oferecer uma melhor experiência para o usuário enquanto aumenta o uso da plataforma.
Uma das características mais radicais da IA generativa é sua capacidade de dominar a linguagem. Isso muda a forma como interagimos com a tecnologia, criando uma interface conversacional tão natural que estimula facilmente o processo de antropomorfização - a atribuição de traços humanos a essa interação. Tenho destacado em artigos, palestras e audiências públicas que, nos debates sobre governança e regulação de IA, não podemos ignorar a dimensão do design de interação dessas plataformas.
O que antes era apenas um botão escondido para dificultar o cancelamento ganhou formas mais sofisticadas, como conversas que nos convencem a ficar. Se já éramos manipulados pelas interfaces, agora somos persuadidos pelas palavras em uma conversa com a IA. E o próximo passo já está dado: a OpenAI anunciou que será possível fazer compras dentro do ChatGPT. A persuasão deixará de ser apenas retenção de atenção para se tornar, em breve, decisão de consumo.





























Deixe seu comentário
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.