Topo

O que acontece quando um gerador de texto inteligente é "educado" pela web

Links selecionados em comunidades online foram usados para treinar inteligência artificial; imagina? - Getty Images/iStockphoto
Links selecionados em comunidades online foram usados para treinar inteligência artificial; imagina? Imagem: Getty Images/iStockphoto

Rodrigo Trindade

Do UOL, em São Paulo

27/02/2019 04h00

Resumo da notícia

  • OpenAI criou inteligência artificial que entende e escreve textos coerentes
  • Sistema se destaca pela flexibilidade de ações, embora cometa deslizes
  • Ferramenta pode ser usada tanto para moderar discurso de ódio, quanto para espalhá-lo

Os diferentes tipos de inteligência artificial já criados realizam bem um grande número de ações envolvendo números e padrões. Mas, quando as nuances da linguagem entram no meio, a história é outra. Ou era, pois a organização OpenAI criou um programa de modelagem de linguagem que surpreendeu seus próprios criadores.

O robozinho em questão foi treinado pelos pesquisadores da OpenAI a partir de 8 milhões de links tirados do Reddit, plataforma que é um misto de rede social e fórum. No Reddit, os usuários votam em posts, que ganham destaque a partir dessa aprovação. Foi desse ranking que os pesquisadores retiraram os links que alimentaram a inteligência artificial, chamada GPT-2.

Depois de tanto "estudar", o robô aprendeu a responder perguntas complexas, resumir notícias, completar frases ou textos e até fazer uma ou outra tradução --essa parte ainda deixou a desejar. Em exemplos exibidos ao site "The Verge", a OpenAI mostrou algumas das construções linguísticas feitas pela GPT-2.

Depois de alimentada com uma frase de "O Senhor dos Anéis", a inteligência artificial escreveu, com algumas redundâncias, cinco parágrafos narrando aventuras do elfo Legolas e do anão Gimli. Após a leitura de uma frase de "A Metamorfose", a GPT-2 criou praticamente uma fanfic sobre o clássico de Franz Kafka - com texto surpreendentemente coerente.

GPT-2  - OpenAI/The Verge/Reprodução - OpenAI/The Verge/Reprodução
Inteligência artificial GPT-2 soube discursar extensa e confusamente sobre "O Senhor dos Anéis"
Imagem: OpenAI/The Verge/Reprodução

Ela também construiu uma notícia sobre a fuga de um macaco de um zoológico, adicionando detalhes como o horário do acontecimento, peso, idade e sexo do animal. Curiosamente, como a educação partiu de sites, o robô também aprendeu que propagandas aparece no meio de notícias, então a palavra "anúncio" aparece entre parágrafos.

A qualidade dos textos produzidos varia bastante, e é possível identificar algo estranho no conteúdo... como se não fosse um humano escrevendo. Ainda assim, o que está escrito é gramaticalmente correto e coerente, além de aplicado a temas e tipos de texto diferentes. É uma conquista expressiva.

"O que o trabalho da OpenAI mostra é que, sim, você pode construir algo que realmente parece 'entender' muito sobre o mundo, apenas a partir da leitura", disse ao "The Verge" o pesquisador Jeremy Howard, que não é da OpenAI, mas trabalha em programas de modelagem de linguagem.

Compreender sentido e nuances de linguagem é a dificuldade que os algoritmos do Facebook têm na hora de moderar o conteúdo postado na rede social. Em 2018, Mark Zuckerberg argumentou em diversas audiências sobre os problemas encontrados pela empresa para diferenciar um termo que pode ser usado tanto em uma brincadeira entre amigos quanto em discurso de ódio ou bullying.

Perigos da inteligência artificial

O Reddit não é o fórum de discussão mais tóxico na internet, mas ainda assim a GPT-2 aprendeu conceitos que não devia, como demonstrou um teste feito pelo "The Verge". O site alimentou o sistema com uma frase antissemita, e ele, "educado" com conteúdo racista da web, deu uma resposta digna de um neonazista.

O resultado expõe uma das preocupações da OpenAI, que não liberou sua nova inteligência artificial para terceiros. A organização ainda não tem noção de tudo o que a GPT-2 ficou sabendo ao ler 8 milhões de links, mas tem ciência das capacidades da tecnologia.

Com o advento das fake news espalhadas por Facebook, WhatsApp ou Twitter, um agente malicioso poderia muito bem se aproveitar dessa GPT-2 para programar um bot que atacasse certos grupos ou espalhasse mentiras coerentes com autonomia, sem a necessidade de um humano escrevendo textos distorcidos sobre fatos reais.

Ou seja: em vez de usada para uma finalidade boa, como moderar com eficiência o conteúdo divulgado em uma rede social, a inteligência artificial poderia ser usada justamente para espalhar esse tipo de material. Se eleições e crimes recentes servem de parâmetro, todo é cuidado é pouco para uma ferramenta que pode trazer riscos seríssimos.

"Eventualmente, alguém vai envenenar o discurso na internet enchendo-o de um nonsense coerente. Eles farão de um jeito que a quantidade de informações estranhas supere as boas informações, danificando a habilidade de pessoas reais terem conversas reais", previu Jack Clark, diretor de políticas da OpenAI.