ANÁLISE
Indústria alardeia 'perigos' da IA, mas não faz nada. Por que será?
Nos últimos meses, pelo menos duas cartas pedindo cuidado ou interrupção temporária do desenvolvimento de inteligências artificiais vieram a público. Todas foram assinadas por pessoas envolvidas diretamente na indústria de IA. O que mais chama a atenção é que, apesar do alarde, nada foi feito
Com signatários do calibre de Yuval Harari, do livro " Sapiens: Uma breve história da humanidade", o cofundador da Apple Steve Wozniak e o bilionário Elon Musk, o instituto Future Of Life falou que o "desenvolvimento de IA deve ser interrompido até que haja protocolos de segurança".
Assinada por Sam Altman, CEO da OpenAI (criadora do ChatGPT), e Demis Hassabis, CEO da Google DeepMind, braço de inteligência artificial do Google, a carta mais recente se resumia a uma frase:
Mitigar o risco de extinção pela IA deve ser uma prioridade global, ao lado de outros riscos em escala social ampla, como pandemias e guerra nuclear
Nem se pode dizer que nada aconteceu após a primeira missiva, já que há relatos de que Musk comprou 10 mil placas gráficas para criar seu próprio chatbot à la ChatGPT. Enquanto isso, Google e OpenAI continuam desenvolvendo soluções.
O que está por trás desse alarmismo?
Que a inteligência artificial é poderosa, ninguém duvida. Porém chama a atenção que os desenvolvedores da tecnologia têm deixado claras suas preocupações para o futuro, como se a IA que eles estão trabalhando pudesse ter consequências que nem eles sabem mensurar direito.
Um dos casos que mais chama a atenção é o de Altman, da OpenAI. Ao mesmo tempo que fala da necessidade de regulação e dos perigos da IA, ele ameaçou que poderia deixar a Europa se a lei para regular o tema fosse aprovada - no dia seguinte, afirmou que não havia intenção de deixar a região, após ter, aparentemente, exagerado na dose.
O comportamento errático, somado a essas cartas catastróficas, joga o problema para frente — um cenário apocalíptico — e deixa de lado questionamentos mais imediatos, que nos afetam aqui e agora. Ou seja, deixam sem respostas perguntas como:
- Como foi feito o treinamento dos chatbots?
- Os resultados são enviesados?
- De onde as empresas tiraram textos e vídeos para treino das ferramentas?
- Vão pagar os donos dos conteúdos, ainda mais agora que geram serviços pagos?
- Quais áreas podem ter perda de emprego no curto prazo? É possível treinar essas pessoas para novas ocupações relacionadas?
- Se há medo de uso de IA para a extinção humana, que tal proibir a utilização em contextos de conflito?
Isso quer dizer que eles mentem sobre os perigos da inteligência artificial? Não. Empregos devem ser perdidos mesmo e, eventualmente, a IA pode ser usada em uma guerra. Máquinas não têm empatia e se são ordenadas a fazer algo, com certeza farão, se puderem.
O problema é a aparente incoerência de ver quem desenvolve a tecnologia avisar dos terríveis perigos de uma colisão de trem e, ao mesmo tempo, jogar mais carvão na fogueira para acelerar a velocidade da locomotiva.
Ao manter a preocupação para um cenário posterior — que mal existe —, os responsáveis pelas inteligências artificiais acabam direcionando o foco, decidindo qual aspecto de sua tecnologia é a conversa da vez.
A impressão é que eles estão tentando acelerar ao máximo o desenvolvimento enquanto não existe regulação para, quando as leis surgirem, argumentarem que "não dá mais para voltar atrás".
** Este texto não reflete, necessariamente, a opinião do UOL