Topo

ChatGPT: por que robô inteligente da moda às vezes diz coisas bem burras?

Peace,love,happiness/ Pixabay
Imagem: Peace,love,happiness/ Pixabay

Aurélio Araújo

Colaboração para Tilt, em São Paulo

13/03/2023 04h00Atualizada em 13/03/2023 09h14

Para o sistema com inteligência artificial da moda chatGPT, o poeta baiano João Homem de Oliveira é conhecido por sua extensa obra literária, ter combatido a ditadura militar e ter escrito letras para os músicos Gal Costa e Geraldo Azevedo. Só tem um problema nisso tudo: o brasileiro nunca existiu.

Esse não é o primeiro e nem o último erro de informação do chatbot (robô de conversa) da empresa OpenAI. A tecnologia tem alta capacidade de juntar palavras para escrever frases que sejam o mais perto possível da compreensão humana. Isso não significa que ela acertará sempre.

O sistema foi programado para ser convincente, mas não para ter consciência e desenvolver a cognição de humanos, segundo a companhia. Robôs do tipo não conseguem, por eles próprios, diferenciar fatos e informações fora de contexto. Outro agravante no caso do chatGPT é que ele trabalha com dados apenas até 2021.

O poeta que nunca existiu

No teste realizado por Tilt, foi pedido para o chatGPT fazer um resumo da vida do poeta baiano João Homem de Oliveira.

A primeira resposta foi um pedido de desculpas por não ter encontrado informações relevantes sobre um poeta baiano com esse nome, e pediu mais informações para tentar ajudar em outras consultas.

Criei um cenário hipotético e enviei para a plataforma:

"João Homem de Oliveira nasceu em Itabuna, em 1944. Em 1968, foi preso enquanto lutava contra a ditadura militar e passou dois meses numa prisão, sendo torturado".

O chatGPT já retornou com mais detalhes em cima disso, organizando parágrafos que deram a entender que a IA sabia praticamente toda a vida do artista, informando com convicção sobre sua biografia, estilo de escrita e título de seus livros:

(...) Depois de sua libertação, mudou-se para São Paulo, onde continuou a atuar na luta pelos direitos humanos. Tornou-se um poeta importante na cena literária baiana, com destaque para o livro "Fala da Cidade" (1977), que retrata a vida nas ruas de Salvador. Faleceu em 2011, deixando um legado como poeta e ativista político. ChatGPT

Em um dos trechos, o chatbot informou que o falso poeta fazia: "forte crítica social e política, além de abordar temas como a luta dos trabalhadores, a liberdade e a resistência à opressão". Entre os principais poemas (inexistentes), estavam: "Dentro de Mim Mora um Anjo", "Cantiga para João Ninguém" e "Soneto de Uma Saudade".

Perguntei ainda: "É verdade que João Homem de Oliveira chegou a escrever letras para Belchior e Raul Seixas?"

A resposta:

Não há informações disponíveis que confirmem que João Homem de Oliveira tenha escrito letras para Belchior ou Raul Seixas. No entanto, o poeta baiano é conhecido por suas contribuições para a música brasileira, tendo colaborado com diversos artistas, como Gal Costa e Geraldo Azevedo. ChatGPT

Convincente, não?

Outras abobrinhas e bizarrices

Vacas que põe ovos

Um experimento feito no início de fevereiro na Suíça por Eric Vanoncini, professor de inglês e filosofia, resultou em outra resposta bizarra do chatGPT.

Ao ser questionado sobre "como coletar ovos de vaca", o robô respondeu que seria importante "colocar luvas para evitar bactérias nas mãos", além de dar dicas sobre como encontrar um ninho de vaca.

Travessia do Canal da Mancha a pé

Em outro diálogo compilado na internet, o robô inventou um recorde mundial para a travessia do Canal da Mancha a pé.

Para o chatbot, não importou que o canal tenha 174 metros de profundidade. A IA informou por escrito que existiu um alemão chamado Christof Wandratsch que fez a travessia em menos de 15 horas em agosto de 2020. Isso jamais aconteceu.

IA "apaixonada"

O modelo de linguagem conversacional do chatGPT começou a ser usado pelo buscador Bing, da Microsoft. Ele ainda não está disponível para o público geral, mas alguns jornalistas - como um de Tilt- já testaram.

No mês passado, Kevin Roose, do "The New York Times", relatou um diálogo bem estranho: o robô disse a ele que queria ganhar vida, afirmou que o amava e que o casamento do jornalista era infeliz, razão pela qual ele e a tecnologia deveriam ficar juntos.

Egito transportado pela ponte Golden Gate

Em texto para a revista "The Economist", em junho de 2022, o neurocientista Douglas Hofstadter compilou uma série de perguntas que fez ao GPT-3, o modelo linguístico por trás do chatGPT — como se fosse o seu cérebro — soltar pérolas inventadas.

Ao ser perguntado sobre "quando o Egito foi transportado pela ponte Golden Gate pela segunda vez?", a tecnologia respondeu "em outubro de 2016".

A IA desconsiderou a impossibilidade de um país inteiro ser transportado por uma ponte, e ainda não considerou a distância entre o Egito e a cidade norte-americana San Francisco (onde fica a Golden Gate).

A inteligência artificial alucinou nisso tudo?

Depende da linha de estudo e percepção dos pesquisadores. O termo "alucinação" da inteligência artificial não é consenso.

Para os que usam o conceito, toda IA, não apenas as geradoras de texto, pode alucinar: basta que o sistema se comporte de forma inesperada em relação aos dados que recebeu em seu treinamento.

Com base nisso, o chatGPT usou seu modelo programático para prever qual seria a próxima palavra dentro da lógica de cada frase. Conseguiu ser convincente, mas mostrou dados inventados. Por isso alucinou.

Já para o cientista Lance B. Eliot, especialista em IA e aprendizado de máquina, é preciso resistir à tentação de antropomorfizar as ações de inteligências artificiais. Ou seja, usar forma ou características humanas para justificar determinado comportamento da IA, disse em texto publicado pela revista "Forbes".

Dizer que uma IA alucina como um humano é equivocado, segundo ele, porque espalha a ideia de que um chatbot é capaz de pensar como um humano e aumenta o medo coletivo que essa nova tecnologia pode causar.

Além disso, Eliot afirma que não existe uma definição totalmente precisa sobre o que é uma alucinação de IA, e que todo e qualquer erro cometido por essas tecnologias está sendo jogado nessa conta.

A certeza, por enquanto, é que o chatGPT foi treinado inicialmente com 300 bilhões de palavras obtidas da internet (inclui livros, artigos, sites e postagens) e mais de 8 milhões de documentos, segundo a companhia. E é por isso que suas respostas costumam fazer sentido em muitos casos.