Diogo Cortiz

Diogo Cortiz

Siga nas redes
Só para assinantesAssine UOL
Opinião

Por que acreditamos em teorias da conspiração e como a IA pode nos salvar

Talvez você não queria admitir, mas possivelmente alguma vez na vida já tenha acreditado em teoria da conspiração. Eu já. Na minha adolescência, eu acessei um fórum que contava uma história convincente de que os atentados de 11 de setembro foram um trabalho interno do governo americano para justificar novas guerras e exercer um maior controle sob a população. Foi o suficiente para que eu acreditasse —ainda que por um curto período— que o presidente Bush estava por trás de tudo.

As teorias da conspiração são narrativas que oferecem uma explicação alternativa para eventos significativos, simplificando e distorcendo fatos para que as pessoas assimilem a ideia de uma maneira ainda mais rápida.

Se tiver que pensar muito, os interlocutores questionam o conteúdo e a falsidade se desfaz.

Esse tipo de conteúdo costuma compartilhar algumas características que as tornam tão sedutoras.

Uma delas é o foco em estabelecer uma forte desconfiança em relação às autoridades. Em via de regra, esse tipo de história tenta colocar os governos, instituições, imprensa e especialistas como manipuladores e mentirosos. É como se houvesse um grande complô global que faz você acreditar em coisas que não deveriam.

Uma outra característica é o sentimento de exclusividade. Quem passa a acreditar em uma teoria da conspiração começa a se sentir parte de um grupo seleto e exclusivo com acesso a uma verdade que a maioria das pessoas desconhecem.

Em essência, a teoria da conspiração não passa de uma mentira embalada por uma narrativa envolvente que faz as pessoas se sentirem importantes e únicas.

Fica, no entanto, o questionamento do porquê é tão fácil acreditar nesse tipo de mentiras. E a resposta está na própria natureza humana, especialmente na forma como o nosso cérebro trabalha.

Nós tendemos a acreditar nas coisas que lemos e ouvimos logo na primeira vez. Faz sentido que seja assim, porque a maior parte das informações às quais somos expostos no dia a dia são, de fato, verdadeiras. As mentiras se aproveitam desses mesmos mecanismos mentais para nos persuadir e convencer.

Continua após a publicidade

E nós somos tão vulneráveis que um estudo mostrou que apenas uma única exposição a uma manchete falsa já aumenta significativamente a probabilidade de as pessoas acreditarem que a informação seja verdadeira. Caso ela seja dita repetidamente, tendemos acreditar ainda mais.

Isso tem até um nome: o efeito da verdade ilusória. Nós acreditamos mais e mais conforme a informação se torna familiar para nós. Se a mensagem tiver conteúdos que eliciam emoções e estejam conectados com valores morais das pessoas, como acontece com as teorias da conspiração, o efeito é ainda maior.

O problema é que sair deste loop não é uma tarefa fácil. Diversos estudos mostram que uma mentira continua fazendo efeito mesmo depois que a pessoa aprendeu que aquilo é falso.

Uma meta-análise com 32 estudos investigou que corrigir uma mentira reduz o efeito, mas não a elimina por completo. E outra pesquisa em neurociência mostrou que traços das mentiras continuam existindo no cérebro junto com a informação que a desmente.

Aprender a verdade não apaga a mentira. Combater as mentiras depois que elas entram no cérebro da pessoa é difícil. Uma estratégia é fazer as pessoas questionarem a informação antes de absorvê-las como verdadeiras, mas para isso precisaríamos de um esforço educacional e de letramento digital.

A IA pode ser uma aliada nesse processo.

Continua após a publicidade

Para testar essa hipótese, pesquisadores do MIT e Cornell criaram um bot (chamado DebunkBot), a partir da customização do GPT-4, para debater com teorias da conspiração. Os participantes do experimentos eram convidados a dizer sobre uma teoria da conspiração que consideravam plausível, explicando os motivos pelos quais ela os convencia e apresentando qualquer evidência que acreditavam apoiar sua visão.

Com base nessas respostas, o chatbot foi programado para contra-argumentar da maneira mais persuasiva possível, focando especialmente nas evidências apresentadas pelos participantes.

Após três rodadas de interação entre os participantes e o chatbot, os pesquisadores perceberam um efeito significativo nas pessoas. O experimento reduziu a crença dos participantes na teoria da conspiração escolhida em 20%, em média. O resultado desse experimento foi publicado na Science, uma das mais respeitadas revistas científicas.

Embora esse resultado seja de um experimento feito em laboratório, o estudo mostra potencial para uma intervenção que pode ser aplicada no mundo real.

Boa parte dos estudos e argumentos focam na IA como uma arma perigosa para a criação e propagação de desinformação e teoria da conspiração.

De fato, não tenho dúvida que isso vai acontecer, mas essa pesquisa mostra que talvez seja a chance de também pensarmos em uma estratégia de contra-atacar o mal usando a própria IA, principalmente se pensarmos que muito em breve as redes sociais estarão tomadas por agentes inteligentes.

Opinião

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

** Este texto não reflete, necessariamente, a opinião do UOL.

Deixe seu comentário

O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.