Topo

Dá para atacar fake news, mas não do jeito que a maioria faz, diz cientista

CAIO ROCHA/FRAMEPHOTO/ESTADÃO CONTEÚDO
Imagem: CAIO ROCHA/FRAMEPHOTO/ESTADÃO CONTEÚDO

Pedro Santos

Colaboração para Tilt

28/01/2022 04h00

Em 2022, o Brasil terá ainda mais trabalho para combater as fakes news em meio à pandemia. As eleições serão realizadas em outubro, mas até lá tentativas de propagar desinformação devem aumentar, segundo alguns especialistas do setor — depois do WhatsApp (em 2018), o aplicativo Telegram pode se tornar o grande vilão neste ano.

Um estudo recente da Tufts University, em Massachusetts, nos Estados Unidos, porém, encontrou tendências que ajudam a explicar como as fake news se espalham e sugere algumas estratégias de enfrentamento.

Para isso, os pesquisadores desenvolveram um modelo computacional que funcionou como uma rede social simulada. Ela apresentou indicativos de como a mente humana pode ser convencida pelas notícias falsas, explica Nicholas Rabb, pesquisador e autor do estudo.

Nicholas Rabb, pesquisador e autor do estudo da Tufts University, em Massachusetts, nos Estados Unidos - Arquivo pessoal - Arquivo pessoal
"Apoiar fake news, levando pessoas à morte, é algo horrível para o líder de uma nação", diz pesquisador Nicholas Rabb
Imagem: Arquivo pessoal

Em entrevista a Tilt, o cientista destaca que um dos caminhos para combater a desinformação é "encontrar as pessoas onde elas estão ao invés de tentar forçá-las a vir até o seu lado imediatamente". Ou seja, se alguém tem uma crença de que algo é verdade, tentar forçá-la a mudar de opinião tende a não funcionar.

"Muitas pessoas rejeitam informações factuais apoiadas por evidências que as levam muito longe do que elas já acreditam. Os profissionais de saúde comentaram a força desse efeito, observando que alguns pacientes que morrem de covid se apegam à crença de que a covid não existe", destacam os responsáveis pelo estudo.

Confira a seguir a entrevista com o cientista, que também é candidato ao programa de pós-graduação da Universidade.

Tilt: Como você vê o cenário atual do mundo em relação às fake news?

Nicholas Rabb: O problema é sério, mas podemos atacá-lo. Em sociedades democráticas, as pessoas discutem, cooperam e entendem como as coisas funcionam. Fake news tornam tudo isso difícil. Mas eu acho que as pessoas são muito boas em filtrar informações e chegar a conclusões equilibradas. O problema é que as notícias falsas são usadas como arma política.

Apoiar fake news, levando pessoas à morte, é algo horrível para o líder de uma nação. Nosso cenário político alimenta o conflito, uma clássica tática de poderosos querendo se manter no poder. Precisamos de pessoas organizando sistemas que ajudem pessoas a filtrar as mentiras.

Tilt: Você pode explicar o método usado e os resultados encontrados no estudo?

NR: Nós criamos um modelo computacional que simula mensagens passando pelas redes sociais — começando pelas instituições e então se espalhando entre as pessoas. Criamos funções que controlam como um indivíduo decide se acredita na mensagem recebida e como a compartilha.

Com base na psicologia e na literatura cognitiva, testamos um modelo muito simples de dissonância cognitiva no 'cérebro' simulado de cada pessoa. Dissonância cognitiva é a ideia de que é menos provável que você acredite em algo que confronta aquilo que você já acredita.

Um de nossos resultados mais interessantes foi que não importa como a rede social se organizava (quem estava conectado com quem), o padrão de mudança de crença no agregado (através de toda a rede) foi mais ou menos o mesmo.

Tilt: E as conclusões?

NR: Uma das principais conclusões é que, se o que as pessoas acreditam é fortemente impulsionado pela dissonância cognitiva, então muitas intervenções contra a desinformação podem não funcionar.

Nosso modelo previsivelmente mostrou que o único jeito de nossas pessoas simuladas abandonarem uma crença forte era primeiro apresentar-lhes mensagens próximas de onde elas estavam vindo, e gradualmente empurrá-las em direção a uma crença diferente.

Eu vejo isso como uma forma de inteligência emocional — encontrar as pessoas onde elas estão ao invés de tentar forçá-las a vir até o seu lado imediatamente.

Tilt: Por que usar um modelo computacional?

NR: É preciso deixar claro que modelos computacionais não capturam a complexidade do mundo real. Contudo, há vantagens em se usar um. Desenvolvê-lo te força a fazer suposições sobre como a desinformação funciona.

O modelo não faz nada que você não o tenha programado para fazer, então é preciso definir estritamente as variáveis e funções. E também permitem a simulação de muitas dinâmicas complexas, todas influenciando-se mutuamente.

Tilt: Que tipo de dinâmicas?

NR: Com a desinformação, há dinâmicas cognitivas de indivíduos, dinâmicas sociais da sua rede, dinâmicas da mídia e assim por diante. Pode ser difícil manter tudo isso alinhado na cabeça e entender como a interação faria da desinformação um problema. O modelo computacional pode ser uma ferramenta de aprendizado que permite simulações de processos complicados.

Tilt: No estudo, foi definido para o modelo computacional que as pessoas já tinham uma crença anterior no caso do potencial de convencimento de uma fake news. Por que essa escolha?

NR: Acreditamos que essa parte foi crucial. Muitas pesquisas sugerem que, quando as pessoas interagem com mensagens, elas as filtram com seus modelos de como o mundo funciona. Entender os modelos de mundo das pessoas parece chave para ser capaz de se comunicar com elas de maneira eficaz.

Em nosso modelo, o que as pessoas acabavam acreditando no final da simulação tinha base no que elas já acreditavam no início. Isso deixou claro que qualquer intervenção precisa pesquisar de onde as pessoas estão vindo antes de tentar levá-las a outro lugar.

Tilt: A propagação das fake news lembra a de um vírus se espalhando?

NR: Eu diria que lembra em alguns aspectos, e em outros não. O sistema imunológico de seu cérebro possui um conjunto de defesas, um dos quais é o mecanismo de dissonância cognitiva —você não vai ser 'infectado' por coisas muito distantes daquilo que você acredita.

Esse sistema também poderia aprender padrões de manipulação e então reconhecer narrativas fabricadas.

Esses são exemplos de como a difusão de informações é similar a vírus (que são exatamente cápsulas de informação) se espalhando.

Mas as fake news são feitas por pessoas, e os vírus não (apesar de que alguns acreditam nessa fake news). E nosso intelecto não constrói defesas automaticamente. Temos que aprender padrões e colocar esforço nisso enquanto o sistema do nosso corpo faz isso por nós.

Tilt: Como podemos combater a desinformação individualmente? E como sociedade?

NR: Essa é uma ótima pergunta. Aqueles que têm habilidades e privilégios —seja tempo, educação, habilidades de pesquisa, um doutorado talvez— deveriam usar essas vantagens, mas eles tendem a se retirar em um lugar confortável, onde a bagunça do resto do mundo desaparece.

Essas pessoas são as mais indicadas para detectar mentiras. Eu acho que a maior parte do problema não está nos indivíduos, mas nas instituições e sistemas sociais.

Tilt: Por quê?

NR: Grandes lucros fizeram redes sociais como Facebook e WhatsApp restringirem o desejo de moldar suas plataformas aos interesses da democracia e do bem social.

Além disso, a quantidade de tempo e incentivo dada para nos engajarmos politicamente é baixa. A democracia deliberativa daria tempo e recursos para as pessoas se engajarem e não seria obcecada com crescimento econômico, mas sim com o bem social.

Aqueles que não têm os privilégios que listei deveriam ter acesso a educação de qualidade, tempo para estar em suas comunidades e outros recursos, de modo que não gastassem todo seu tempo só tentando sobreviver.

Alguns estudiosos argumentam que a propaganda entra em jogo quando a sociedade tenta justificar coisas fundamentalmente injustificáveis para si mesma. Se vivêssemos em uma sociedade mais facilmente justificada, talvez não tivéssemos tanto problema com desinformação.

A expectativa da equipe de Rabb é que o modelo de computador se torne mais complexo em relação aos dados. Para, assim, refletir com precisão o que está acontecendo no terreno da desinformação.

Participaram da pesquisa: a orientadora Lenore Cowen, professora de ciência da computação; o cientista da computação Matthias Scheutz; e JP deRuiter, professor de psicologia e ciência da computação.

*Com informações do site da Turfts University.