Topo

Deu ruim: advogado usou ChatGPT e chatbot inventou casos que não existem

Nos EUA, um advogado usou o ChatGPT para escrever um recurso; o problema é que casos citados pelo chatbot eram todos inventados - Getty Images/iStockphoto
Nos EUA, um advogado usou o ChatGPT para escrever um recurso; o problema é que casos citados pelo chatbot eram todos inventados Imagem: Getty Images/iStockphoto

De Tilt, em São Paulo

28/05/2023 11h15

Um advogado nos EUA usou o ChatGPT para ajudar na argumentação no recurso de um cliente. Ele, especificamente, buscou por casos semelhantes ao que estava defendendo para sustentar sua tese, e o chatbot retornou vários resultados.

O problema é que todos esses casos foram inventados, e os advogados envolvidos podem ser punidos por isso.

Após um juiz ter argumentado que não havia achado os casos citados, o advogado confessou que havia usado o chatbot inteligente para preparar a ação. As informações são do jornal norte-americano The New York Times.

Entendendo o caso

O colombiano Roberto Mata quis processar a empresa aérea Avianca, pois um carrinho de serviço de bordo havia machucado seu joelho durante um voo de El Salvador para Nova York em 2019. Ele, então, contratou um escritório de advocacia.

O processo estava para ser arquivado, quando um dos advogados de Mata, Steven A. Schwartz, entrou com um recurso, citando vários casos semelhantes ao dele em um documento de dez páginas.

Havia menção a casos como Martinez v. Delta Air Lines, Zicherman v. Korean Air Lines e Varghese v. China Southern Airlines. O primeiro nome seria do sobrenome do autor da ação contra as empresas aéreas envolvidas.

De acordo com registros na corte de Manhattan, nos EUA, o advogado Schwartz diz ter até perguntado ao ChatGPT se esses casos eram reais antes de colocá-los no documento, e o chatbot respondeu que sim, e que eles poderiam ser achados em "bases de dados jurídicas de reputação".

O problema é que nem o juiz do caso nem os advogados da Avianca conseguiram achar registros desses processos citados no recurso.

No fim das contas, todos foram inventados pelo chatbot e o advogado Schwartz pediu desculpas por ter confiado no ChatGPT para escrever o recurso. Nos próximos dias, o juiz do caso deve decidir se as pessoas envolvidas devem receber algum tipo de punição ou não.

O fato é que o ChatGPT é uma péssima ferramenta para busca. Ele costuma ser bom em estruturar conteúdos solicitados, gerando um texto que faz sentido, só que ele não tem compromisso com a verdade. Por essa razão, a ferramenta não deve ser usada como um "oráculo".

O termo técnico para quando uma inteligência artificial gera conteúdos que não fazem sentido ou são incorretos é "alucinação".