Nos últimos meses, pelo menos duas cartas pedindo cuidado ou interrupção temporária do desenvolvimento de inteligências artificiais vieram a público. Todas foram assinadas por pessoas envolvidas diretamente na indústria de IA. O que mais chama a atenção é que, apesar do alarde, nada foi feito
Com signatários do calibre de Yuval Harari, do livro " Sapiens: Uma breve história da humanidade", o cofundador da Apple Steve Wozniak e o bilionário Elon Musk, o instituto Future Of Life falou que o "desenvolvimento de IA deve ser interrompido até que haja protocolos de segurança".
Assinada por Sam Altman, CEO da OpenAI (criadora do ChatGPT), e Demis Hassabis, CEO da Google DeepMind, braço de inteligência artificial do Google, a carta mais recente se resumia a uma frase:
Mitigar o risco de extinção pela IA deve ser uma prioridade global, ao lado de outros riscos em escala social ampla, como pandemias e guerra nuclear
Nem se pode dizer que nada aconteceu após a primeira missiva, já que há relatos de que Musk comprou 10 mil placas gráficas para criar seu próprio chatbot à la ChatGPT. Enquanto isso, Google e OpenAI continuam desenvolvendo soluções.
O que está por trás desse alarmismo?
Que a inteligência artificial é poderosa, ninguém duvida. Porém chama a atenção que os desenvolvedores da tecnologia têm deixado claras suas preocupações para o futuro, como se a IA que eles estão trabalhando pudesse ter consequências que nem eles sabem mensurar direito.
Um dos casos que mais chama a atenção é o de Altman, da OpenAI. Ao mesmo tempo que fala da necessidade de regulação e dos perigos da IA, ele ameaçou que poderia deixar a Europa se a lei para regular o tema fosse aprovada - no dia seguinte, afirmou que não havia intenção de deixar a região, após ter, aparentemente, exagerado na dose.
O comportamento errático, somado a essas cartas catastróficas, joga o problema para frente — um cenário apocalíptico — e deixa de lado questionamentos mais imediatos, que nos afetam aqui e agora. Ou seja, deixam sem respostas perguntas como:
- Como foi feito o treinamento dos chatbots?
- Os resultados são enviesados?
- De onde as empresas tiraram textos e vídeos para treino das ferramentas?
- Vão pagar os donos dos conteúdos, ainda mais agora que geram serviços pagos?
- Quais áreas podem ter perda de emprego no curto prazo? É possível treinar essas pessoas para novas ocupações relacionadas?
- Se há medo de uso de IA para a extinção humana, que tal proibir a utilização em contextos de conflito?
Isso quer dizer que eles mentem sobre os perigos da inteligência artificial? Não. Empregos devem ser perdidos mesmo e, eventualmente, a IA pode ser usada em uma guerra. Máquinas não têm empatia e se são ordenadas a fazer algo, com certeza farão, se puderem.
O problema é a aparente incoerência de ver quem desenvolve a tecnologia avisar dos terríveis perigos de uma colisão de trem e, ao mesmo tempo, jogar mais carvão na fogueira para acelerar a velocidade da locomotiva.
Ao manter a preocupação para um cenário posterior — que mal existe —, os responsáveis pelas inteligências artificiais acabam direcionando o foco, decidindo qual aspecto de sua tecnologia é a conversa da vez.
A impressão é que eles estão tentando acelerar ao máximo o desenvolvimento enquanto não existe regulação para, quando as leis surgirem, argumentarem que "não dá mais para voltar atrás".
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso do UOL.