Topo

ANÁLISE

Indústria alardeia 'perigos' da IA, mas não faz nada. Por que será?

Getty Images/iStockphoto
Imagem: Getty Images/iStockphoto

De Tilt, em São Paulo

06/06/2023 04h00Atualizada em 07/06/2023 10h36

Nos últimos meses, pelo menos duas cartas pedindo cuidado ou interrupção temporária do desenvolvimento de inteligências artificiais vieram a público. Todas foram assinadas por pessoas envolvidas diretamente na indústria de IA. O que mais chama a atenção é que, apesar do alarde, nada foi feito

Com signatários do calibre de Yuval Harari, do livro " Sapiens: Uma breve história da humanidade", o cofundador da Apple Steve Wozniak e o bilionário Elon Musk, o instituto Future Of Life falou que o "desenvolvimento de IA deve ser interrompido até que haja protocolos de segurança".

Assinada por Sam Altman, CEO da OpenAI (criadora do ChatGPT), e Demis Hassabis, CEO da Google DeepMind, braço de inteligência artificial do Google, a carta mais recente se resumia a uma frase:

Mitigar o risco de extinção pela IA deve ser uma prioridade global, ao lado de outros riscos em escala social ampla, como pandemias e guerra nuclear

Nem se pode dizer que nada aconteceu após a primeira missiva, já que há relatos de que Musk comprou 10 mil placas gráficas para criar seu próprio chatbot à la ChatGPT. Enquanto isso, Google e OpenAI continuam desenvolvendo soluções.

O que está por trás desse alarmismo?

Que a inteligência artificial é poderosa, ninguém duvida. Porém chama a atenção que os desenvolvedores da tecnologia têm deixado claras suas preocupações para o futuro, como se a IA que eles estão trabalhando pudesse ter consequências que nem eles sabem mensurar direito.

Um dos casos que mais chama a atenção é o de Altman, da OpenAI. Ao mesmo tempo que fala da necessidade de regulação e dos perigos da IA, ele ameaçou que poderia deixar a Europa se a lei para regular o tema fosse aprovada - no dia seguinte, afirmou que não havia intenção de deixar a região, após ter, aparentemente, exagerado na dose.

O comportamento errático, somado a essas cartas catastróficas, joga o problema para frente — um cenário apocalíptico — e deixa de lado questionamentos mais imediatos, que nos afetam aqui e agora. Ou seja, deixam sem respostas perguntas como:

  • Como foi feito o treinamento dos chatbots?
  • Os resultados são enviesados?
  • De onde as empresas tiraram textos e vídeos para treino das ferramentas?
  • Vão pagar os donos dos conteúdos, ainda mais agora que geram serviços pagos?
  • Quais áreas podem ter perda de emprego no curto prazo? É possível treinar essas pessoas para novas ocupações relacionadas?
  • Se há medo de uso de IA para a extinção humana, que tal proibir a utilização em contextos de conflito?

Isso quer dizer que eles mentem sobre os perigos da inteligência artificial? Não. Empregos devem ser perdidos mesmo e, eventualmente, a IA pode ser usada em uma guerra. Máquinas não têm empatia e se são ordenadas a fazer algo, com certeza farão, se puderem.

O problema é a aparente incoerência de ver quem desenvolve a tecnologia avisar dos terríveis perigos de uma colisão de trem e, ao mesmo tempo, jogar mais carvão na fogueira para acelerar a velocidade da locomotiva.

Ao manter a preocupação para um cenário posterior — que mal existe —, os responsáveis pelas inteligências artificiais acabam direcionando o foco, decidindo qual aspecto de sua tecnologia é a conversa da vez.

A impressão é que eles estão tentando acelerar ao máximo o desenvolvimento enquanto não existe regulação para, quando as leis surgirem, argumentarem que "não dá mais para voltar atrás".