Topo

Diogo Cortiz

OPINIÃO

A briga que não te contam por trás da extinção humana pela IA

Diogo Cortiz*

Especial para Tilt

09/06/2023 04h00Atualizada em 29/11/2023 19h43

Eu não tenho dúvidas que a inteligência artificial transformará profundamente a sociedade. O problema é que nem eu nem ninguém sabemos exatamente como isso vai acontecer. Podemos desenhar alguns cenários com base em evidências empíricas ou a partir de algumas suposições. Ambos os exercícios são importantes para anteciparmos problemas, porque, caso deem pistas de que irão acontecer, estaremos um pouco mais preparados.

Só que, desde o lançamento do ChatGPT, as discussões sobre os riscos da IA ganharam um ar mais dramático. Se antes estávamos discutindo como reduzir vieses e fazer a máquina tomar decisões mais justas, agora lemos que a IA poderá colocar fim à existência da humanidade.

Mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social ampla, como pandemias e guerra nuclear

Essa declaração foi publicada pela Center for AI Safety na semana passada e assinada em conjunto por acadêmicos e CEOs de empresas que lideram o desenvolvimento da IA.

E não é a primeira vez que algo parecido acontece. Em março, uma outra carta, publicada pelo Future of Life Institute, pediu a pausa por seis meses no desenvolvimento da IA para garantir que fossem criadas estratégias de segurança.

As duas cartas levantam o risco da extinção da humanidade. Mas esse alerta faz sentido?

Para responder essa pergunta, precisamos analisar as diferentes perspectivas que existem sobre o desenvolvimento da IA e suas consequências na sociedade.

Um grupo de pesquisadores e desenvolvedores argumenta que estamos próximos de uma IA geral, capaz de desenvolver as mesmas atividades cognitivas dos humanos, e que por isso deveríamos estar preocupados em descobrir como alinhá-la com os valores humanos.

Mas isso não é um consenso

De outro lado, tem uma galera, também com nomes renomados, que critica essa posição e argumenta que falar sobre extinção afasta uma discussão mais séria sobre os riscos que existem com a IA que temos hoje.

Onde eu fico nessa treta toda?

No meio-termo. Não porque eu sou isentão e vou explicar o porquê.

Eu divido os riscos da IA em dois principais tipos: os hipotéticos e os imediatos.

O risco de extinção é hipotético, uma suposição possível, mas dentro de uma realidade especulativa.

Eu pesquiso sobre futurismo e design especulativo, então sei a importância de especular sobre cenários possíveis. Mas, neste caso, não precisamos focar exclusivamente no risco de extinção.

A extinção é uma possibilidade, como tantas outras, e devemos tratá-la assim: como uma hipótese.

Acontece que a IA de hoje já apresenta riscos e desafios reais de governança, como:

  • falta de transparência;
  • coleta indevida de dados;
  • vieses;
  • privacidade;
  • direitos autorais;
  • concentração de poder;
  • impacto nos empregos.

Falar sobre extinção sem tocar nos problemas atuais me parece um salto argumentativo. Os CEOs vestem a fantasia do personagem Morpheus e acham que irão proteger a humanidade contra as máquinas, quando são eles mesmos que estão criando a Matrix.

Posso até dar um exemplo. Sam Altman, o CEO da OpenAI, começou um tour pelo mundo para alertar sobre os riscos da IA e pedir por regulação da tecnologia. Só que em uma entrevista recente, ele afirmou que a OpenAI poderia deixar a União Europeia se a regulação do bloco fosse muito dura.

Ele pede por regulação, mas desde que seja nos seus moldes.

Em uma audiência no Senado americano, ele chegou a pedir por um licenciamento da IA, o que certamente protegeria a sua empresa contra novos entrantes. Esse tipo de comportamento parece o de alguém que topa participar do jogo quando são suas regras, senão ameaça levar a bola embora. Isso me faz pensar que talvez os poderosos da IA estejam mais para Kiko do que Morpheus.

Podemos falar sobre a hipótese de extinção, claro, mas o foco de hoje devem ser os riscos imediatos da IA.

*Professor na PUC-SP e Pesquisador no NIC.br. Doutor em Tecnologias da Inteligência e Design Digital pela PUC-SP, com PhD fellowship pela Université Paris I - Sorbonne. MBA em Economia Internacional pela USP e Especialista em Neurociência. Foi pesquisador visitante no laboratório de Ciência Cognitiva da Queen Mary University of London. Tem pesquisas na intersecção entre ciência cognitiva, design e tecnologia.