Topo

'Existem pontos obscuros', diz brasileiro que apoia pausar avanço da IA

Uso de inteligência artificial está cada vez mais presente - Gerd Altmann/ Pixabay
Uso de inteligência artificial está cada vez mais presente Imagem: Gerd Altmann/ Pixabay

Simone Machado

Colaboração para Tilt, em São José do Rio Preto (SP)

05/04/2023 04h00Atualizada em 05/04/2023 14h00

O pedido público de Elon Musk e de centenas de especialistas para que o treinamento de inteligência artificial (IA) generativa seja pausado por seis meses ainda está dando o que falar. O documento, assinado até agora por 5.938 nomes, alerta para o risco do avanço sem controle de sistemas mais poderosos que o GPT-4, capaz de gerar conteúdo a partir de imagens e textos.

A carta é uma iniciativa do Future of Life Institute, organização sem fins lucrativos criada em 2014. Ela tem como um de seus consultores externos o próprio bilionário, que em janeiro de 2015 doou US$ 10 milhões para seus projetos de pesquisa por meio do Instituto Musk.

O brasileiro Elionai Moura Cordeiro, estudante de doutorado em Bioinformática na UFRN (Universidade Federal do Rio Grande do Norte), é um dos profissionais assinou a carta pública. Ele acredita que é preciso desenvolver mecanismos legais e tecnológicos que permitam auditar, prever impactos sociais, remediar ou minimizar possíveis impactos negativos e, principalmente, identificar os responsáveis em cada aspecto na cadeia de aplicação da inteligência artificial.

"Vamos pensar num cenário real: é fácil falar sobre um acidente de trânsito com carro que dirige sozinho, mas é preciso analisar a situação mais a fundo. A culpa recai sobre a empresa que desenvolveu o sistema de navegação? Recai sobre o usuário do serviço? Sobre a empresa que presta serviços de aluguel de veículos automatizados? Não existe legislação sobre", exemplifica Cordeiro, que também é CEO da Plus3D.app, startup que usa IA para desenvolvimento de biofármacos,

O diretor de marketing digital Raoni Kirschner Sava também decidiu apoiar a pausa de pesquisas do tipo com IA. Para ele, é preciso se atentar aos impactos socioeconômicos que podem acontecer e ter atenção para que a tal evolução não acabe trazendo prejuízos, como o aumento das diferenças sociais.

Brasileiro Raoni Kirschner Sava assinou carta pedindo pausa no treinamento de sistemas com inteligência artificial - Arquivo pessoal - Arquivo pessoal
Brasileiro Raoni Kirschner Sava assinou carta pedindo pausa no treinamento de sistemas com inteligência artificial
Imagem: Arquivo pessoal

"Temos que ter muita atenção em diversos pontos que ainda são obscuros quando falamos de inteligência artificial. Dentre eles poderia dizer que a perda de postos de trabalho, a dependência excessiva dos usuários, a falta de controle que ameaça a privacidade e um possível viés de discriminação. Isso foi predominante para minha decisão", diz Sava.

O que diz a carta?

Sistemas de IA com que competem com a inteligência humana podem representar riscos profundos para a sociedade e a humanidade.

A corrida da IA é precipitada, acirrando a concorrência pelo rápido lançamento de novos recursos relacionados à tecnologia sem que haja a articulação e medidas necessárias para comprovar seus impactos.

Empresas lançaram sistemas de IA "que ninguém - nem mesmo seus criadores - pode entender, prever ou controlar de forma confiável".

Não estão fazendo um planejamento para as mudanças que a tecnologia vai causar.

Por esses aspectos, o Future of Life Institute pede a interrupção "pública e verificável" dos treinamentos de sistemas de IA mais avançados que o GPT-4 (o lançamento mais recente na categoria) por seis meses. Esse intervalo seria usado para definir protocolos de segurança e modelos de governança sobre a tecnologia.

O documento diz ainda que essa pausa não vai afetar o desenvolvimento de IA em geral.

Quem são os apoiadores

Até o momento a carta aberta recebeu o professores, pesquisadores, empresários de tecnologia, além de alguns engenheiros de software de empresas como Microsoft e Google, que investem nos ChatGPT e Bard, respectivamente.

Ela é aberta e está disponível para qualquer pessoa assinar sem verificação de identidade. Alguns nomes oficiais que apoiam a apoiam são:

  • Yuval Noah Harari, escritor, autor de "Sapiens - Uma Breve História da Humanidade" e outros livros
  • Steve Wozniak, cofundador da Apple
  • Emad Mostaque, diretor-executivo da Stability AI, desenvolvedora de robôs que usam IA para criar imagens
  • Yoshua Bengio, vencedor da edição de 2018 do Prêmio Turing, que reconhece contribuições à computação
  • Jaan Tallinn, cofundador do Skype
  • Evan Sharp, cofundador do Pinterest
  • Stuart Russell, pioneiro em pesquisa sobre IA

Pesquisadores contestam carta

Apesar da assinatura de acadêmicos e pesquisadores independentes, como o historiador Harari e o alguns profissionais do setor protestaram contra o que consideram uma má interpretação da discussão.

A cientista da computação Timnit Gebru, especializada em ética da inteligência artificial, escreveu o artigo acadêmico usado pelo Future of Life Institute como parte do argumento para a pausa da IA. Ela se diz insatisfeita com a forma com que ele foi usado no texto.

"Eles basicamente dizem o contrário do que dissemos e citamos em nosso artigo", critica. A pesquisadora foi demitida do Google depois de acusar a empresa de censura e racismo.

Emily Bender, outra autora do artigo, também descreve a carta aberta como uma "confusão".

Sam Altman, diretor da Open AI, que projetou o ChatGPT, chegou a admitir que tem "um pouco de medo" de que seu algoritmo seja usado para "desinformação em larga escala, ou para ciberataques".

As acadêmicas Gebru e Bender afirmam, no entanto, que o perigo da IA é "a concentração de poder nas mãos de pessoas, a reprodução de sistemas de opressão, o dano ao ecossistema da informação".

Já o professor de psicologia Gary Marcus, signatário da carta, considera em uma contrarresposta que "os céticos devem emitir um alarme; não há contradição a esse respeito".

"Nem todos os nossos signatários concordam conosco cem por cento - tudo bem. O progresso da IA é rápido e está forçando nossas sociedades a se adaptarem com uma velocidade incrível. Não achamos que um consenso total sobre todas as questões difíceis seja possível. Estamos felizes em ver que, apesar de algumas divergências, muitos dos principais cientistas de IA do mundo assinaram esta carta", diz o Future of Life Institute em seu site.

Future of Life e a polêmica do longtermism

A missão divulgada pelo Future of Life Institute é "afastar tecnologias transformadoras de riscos extremos e de grande escala para beneficiar a vida." Criada em 2014, a instituição tem entre seus conselheiros, além de Elon Musk, Jaan Tallinn, fundador do Skype.

Coincidência ou não, os dois costumam apoiar financeiramente iniciativas voltadas para o longtermism (em inglês). Simplificando, o conceito envolve a ideia de que se deve priorizar iniciativas que impactarão o futuro de longo prazo, e isso pensando em centenas, milhares e milhões de anos.

A doação de Musk de US$ 10 milhões em 2015, por exemplo, foi direcionada para projetos de pesquisa da organização que assegurassem que a inteligência artificial fosse usada para o bem da humanidade.

Contudo, parte dos adeptos dessa filosofia são acusados de "fingir" que se importam com os problemas sociais futuros, para ignorar os atuais, e assim, favorecer um novo cenário no qual apenas a elite da sociedade poderá crescer financeiramente.

Além disso, eles são acusados de serem antidemocráticos por permitir que pessoas superricas estejam à frente da tomada de decisões que são questionáveis moralmente.

Com esse contexto, há uma linha de críticos que acreditam que Musk e outros ricos do setor estão com esse movimento de pausar os avanços da IA visando apenas os próprios interesses.

*Com informações Currentaffairs.org, AFP e Estadão Conteúdo