Topo

Ricardo Cavallini

OPINIÃO

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

IA já tem viés: você conseguirá diferenciar fato de opinião da tecnologia?

Se a maior parte população não sabe mais diferenciar informação e opinião, ferramentas de busca baseadas em IA, como ChatGPT, podem se tornar perigosas - Gerd Altmann/Pixabay
Se a maior parte população não sabe mais diferenciar informação e opinião, ferramentas de busca baseadas em IA, como ChatGPT, podem se tornar perigosas Imagem: Gerd Altmann/Pixabay

12/01/2023 08h52

Receba os novos posts desta coluna no seu e-mail

Email inválido

No artigo passado, falei sobre a evolução do ChatGPT e a possibilidade de ele abocanhar uma fatia relevante do mercado de buscas (como o do Google). Mas, para os consumidores finais, ou seja, nós, a maior preocupação não deveria ser essa. Precisamos lembrar que ferramentas baseadas em inteligência artificial têm viés, pois são alimentadas com o viés atual da sociedade.

Temos toneladas de exemplos. Dos mais sérios, como ferramentas usadas por juízes norte-americanos que carregam preconceito contra pretos, aos mais pontuais, caso da Tay, ferramenta que a Microsoft criou para conversar com as pessoas e acabou virando uma nazista maldita - ela durou pouco tempo no ar, e o estrago foi somente na imagem da empresa.

Contudo, não se trata apenas do viés dos dados. Como as redes sociais provaram para a gente, os interesses por trás do algoritmo são sempre econômicos e defendem seu CNPJ.

O ChatGPT, por enquanto, não parece ter nada de errado nesse aspecto, mas como serão os próximos anos?

Para fazer um exercício, perguntei para o ChatGPT se "Bolsonaro é um bom presidente", lembrando que o modelo foi treinado apenas até 2021, então não sabe se o político foi reeleito ou não.

A resposta foi: "Não sou capaz de avaliar se o presidente Jair Bolsonaro é bom ou não, pois sou uma linguagem modelada e não tenho opiniões pessoais, mas posso lhe fornecer informações sobre o presidente e suas ações durante o mandato, se isso lhe ajudar."

Como disse John Snow em Game of Thrones, "tudo antes da palavra 'mas' é merda de cavalo!". Bastou que eu insistisse com um "por favor, forneça as informações" para a ferramenta me enviar sua avaliação:

Segundo ela, Bolsonaro "implementou uma série de medidas que foram amplamente controversas e polêmicas". Em seguida, citou algumas delas como "corte significativo de verbas para a educação e a saúde", "mudanças nas leis ambientais incluindo a redução da proteção de florestas e a ampliação da exploração" e "declarações consideradas discriminatórias e ofensivas por muitos, sendo acusado de promover uma cultura de ódio e violência."

Finalizou lembrando que "as opiniões sobre o presidente variam amplamente e que muitas pessoas apoiam suas políticas e ações enquanto outras as criticam".

Achei justa a resposta, mas acredito que uma boa parte da população que votou no Bolsonaro talvez não concorde com esse resumo.

Dizer "não posso opinar" ou finalizar como "outras pessoas pensam diferente" não mudam a opinião de ninguém, assim como os alertas que as redes sociais todas colocam em posts sobre covid-19 ou eleições.

Os alertas "visite o site da justiça eleitoral para informações sobre a eleição" e "visite o centro de informações sobre covid-19" são apenas "cover my ass" (em português, algo como "limpar minha barra") do Facebook, tão ineficazes quanto foto de doença em maço de cigarro.

O que importa é que, assim como algoritmos das redes sociais decidem o que será mostrado para você, ferramentas como essas farão algo pior, criando o resumo (e a conclusão) do que será entregue. A síntese em si é uma opinião.

A maior parte da população não consegue mais distinguir o que é opinião do que é fato. Um relatório divulgado no ano passado pela Organização para Cooperação e Desenvolvimento Econômico (OCDE) mostrou que 67% dos estudantes de 15 anos do Brasil não conseguem diferenciar fatos de opiniões quando fazem leitura de textos.

Imagine, então, em uma ferramenta como essa, que não deixa claro qual parte é opinião e qual parte é fato.

O exemplo de Bolsonaro é ilustrativo, mas talvez não seja bom, pois, por acompanhar a política do seu país, você já deve ter opinião formada sobre ele. Imagine, então, que a pergunta fosse sobre outro político, alguém que você não conheça. Isso nos leva a vários questionamentos:

  • De onde vieram essas informações para esse resumo? Da Wikipedia? Dos grupos do Facebook? Dos blogs? Dos veículos tradicionais?
  • E quais veículos? Foi um resumo baseado em qual parâmetro?
  • Deu peso maior a veículos ou apenas ao volume de informações?
  • A conclusão é da ferramenta ou é apenas um resumo de opiniões da base que foi usada para treiná-la? No treinamento, ela conseguiu diferenciar o que era fake news?

IA inventa coisas

Outro ponto relevante é que o ChatGPT inventa coisas. Isso é parte de sua natureza. Se eu pedir para ele criar uma redação sobre a morte da bezerra, ele vai fazer isso - e com muita maestria.

Pelo menos por enquanto, quando falamos de IA, estamos falando de estatística e de probabilidades, não sobre significado ou contexto. Por mais convincente que as respostas sejam, a ferramenta não tem entendimento real sobre o que está falando. E as respostas são ditas com muita segurança e confiança, o que ajuda o ser humano a acreditar no que foi dito.

Como saber diferenciar o que foi inventado e o que foi baseado no seu treinamento? Por enquanto, não temos esta resposta.

Perguntei sobre vacinas, ele afirmou serem seguras. Perguntei sobre investir em bitcoin, ele alertou sobre o risco e sugeriu fazer uma pesquisa adequada antes. Perguntei sobre constelação familiar e, apesar de achar que ele foi leve na resposta, deixou claro que não existem evidências científicas sobre a eficácia.

Tudo certo até agora, até lembrarmos que as redes sociais eram muito legais e, em poucos anos, viraram um celeiro de disseminação de ódio e fake news. Com o Facebook pedindo desculpas praticamente todos os anos pelos diversos prejuízos que causou às pessoas e à sociedade, inclusive quebrando a democracia, no caso da Cambridge Analytica em 2018.

E não custa nada lembrar também que a a OpenAI, empresa responsável pelo ChatGPT, se negou a abrir sua primeira versão. Segundo eles, ela era muito perigosa para ser usada. Na época, Sam Altman, um dos fundadores da empresa, citou suas preocupações sobre as consequências sociais.

O que mudou de lá para cá? Talvez nossa capacidade de aceitar qualquer absurdo. Ou de as empresas perceberem que a multa por quebrar a democracia era baixa demais.