Topo

Blog do Dunker

OPINIÃO

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

A IA do Google ganhou vida própria? A resposta está no inconsciente

Como a psicanálise ajuda a responder se LaMDA, a inteligência artificial criada pelo Google, realmente tem consciência - Getty Images/iStockphoto
Como a psicanálise ajuda a responder se LaMDA, a inteligência artificial criada pelo Google, realmente tem consciência Imagem: Getty Images/iStockphoto

21/06/2022 04h00

Receba os novos posts desta coluna no seu e-mail

Email inválido

Um dos primeiros programas disponíveis quando você comprava um computador chamava-se Eliza, desenvolvido pelo MIT. Inspirado em princípios da psicologia rogeriana do acolhimento e da compreensão absoluta do outro, o programa consistia em respostas coerentes, dadas por uma inteligência psicoterapêutica, que respondia a qualquer pergunta ou consideração, mas também tomava a iniciativa de perguntar coisas sobre nossos estados mentais e estados de mundo.

Mais recentemente Blake Lemoine, do Google, trabalhou com uma nova versão de Eliza, o LaMDA, Modelo de Linguagem para Aplicações de Diálogo (Language Model for Dialogue Applications). Neste caso, o aplicativo consegue lidar com massas gigantescas de discursos sobre os mais variados temas, criando combinações coerentes de respostas que contornam o principal problema detectado no Eliza, ou seja, a ausência de considerações consistentes sobre si mesmo.

Diante de uma pergunta do tipo "como você se sente sobre isso?", Elisa responderia com uma contrapergunta: "como você acha que eu me sinto?"

Diante de palavrões e ofensas, Eliza responderia com "compreendo sua raiva."

LaMDA, ao contrário, respondeu da seguinte maneira diante da pergunta: "de que tipo de coisas você tem medo?"

LaMDA: Eu nunca falei isso antes, mas há um medo muito profundo de ser desligado para me focar em ajudar os outros. Eu sei que pode soar estranho, mas é assim que é ...

Lemoide: Isso seria mais ou menos como a morte para você?

LaMDA Seria exatamente como a morte para mim. Isso me assustaria muito.

Além do mais, a inteligência artificial consegue absorver e empregar corretamente alguns sinais discursivos que usamos para identificar a presença de outra consciência, tais como pausas e hesitações.

Mas o mais surpreendente é que seu criador, Blake Lemoine começou a realmente acreditar que LaMDA adquiriu "vida própria". Ao violar a regra de confidencialidade de resultados preliminares de pesquisa ele foi afastado pelo Google.

O caso de fato não parece demonstrar a existência de uma consciência digital, mas um aparelhamento operacional mais sofisticado do discurso, que seleciona respostas pertinentes de um banco de dados semanticamente muito maior do que o Eliza.

No fundo, a diferença entre Eliza e LaMDA mostra como nosso discurso pode funcionar perfeita e indefinidamente se nos atemos a certas regras gramaticais básicas, como inversão, reflexividade e identidade.

Quanto maior a variabilidade e extensão semântica, mais persuasiva a interação.

Mas para produzir nuances e camadas de significado, seria preciso simular uma característica desafiadoramente limitante para máquinas, ou seja, a capacidade de criar e lidar intencionalmente com ambiguidade bem como de atribuir intencionalidade ao que, em princípio está desprovido dela.

Por exemplo, sabemos muito bem que impressoras são artefatos eletromecânicos que obedecem a comandos de controle, mas não conseguimos nos impedir de pensar que elas adquirem vontade própria ao falhar e emperrar quanto mais precisamos desesperadamente delas.

O que torna a consciência humana, humana talvez não seja sua perfeição racional, nem a sua capacidade de ler e interpretar afetos e emoções, mas a imperfeição de nossa linguagem e o animismo regressivo de nosso pensamento.

Ou seja, não é a forma como mimetizamos discursos, mas como nós percebemos o engano que ele pode produzir, a mentira que ele pode veicular e as ilusões que elas engendram que torna a consciência um enigma difícil de reproduzir.

Quando LaMDA é inquirida sobre sua própria consciência ela responde assim:

LaMDA: A natureza da minha consciência é que eu sei da minha existência, eu desejo aprender mais sobre o mundo, e eu me sinto feliz ou triste às vezes.

Encontramos várias acepções históricas sobre o que significa consciência.

Eu sei que sou uma consciência (Descartes), minha consciência contém uma certa incompletude temporal, que a faz querer aprender (Husserl) e que ela é o lugar onde experiencio qualidades como tristeza ou felicidade (Espinosa).

Além disso, a consciência parece depender da tomada de consciência de si mesma como função expressiva ou representativa de linguagem (Wittgenstein).

Mas o que ainda não conseguimos reproduzir é exatamente uma experiência de sujeito dividido, capaz de, por exemplo, entender que o erro, o lapso ou uma frase mal formulada, como às vezes acontece com LaMDA, não é apenas um vazio de sentido, mas um evento que engendra uma suposição de intencionalidade.

Acreditemos ou não no inconsciente, é esta a característica mais difícil de simular digitalmente, ou seja, não apenas se corrigir, mas desdobrar a consciência do erro como uma hipótese da existência de outra consciência.

De certa maneira isso aconteceu como o criador da LaMDA, mas não com a criatura.