Topo

Carlos Affonso Souza

OPINIÃO

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

Inteligência artificial 'consciente' do Google: avanço real ou erro humano?

O fato de uma máquina saber conversar sobre a consciência das máquinas não significa que ela mesma tenha adquirido consciência - PhonlamaiPhoto/iStock
O fato de uma máquina saber conversar sobre a consciência das máquinas não significa que ela mesma tenha adquirido consciência Imagem: PhonlamaiPhoto/iStock

13/06/2022 14h31

Receba os novos posts desta coluna no seu e-mail

Email inválido

A consciência das máquinas é um problema exclusivamente humano. Até porque ainda não chegamos no estágio de desenvolvimento da inteligência artificial em que as máquinas poderiam ter algo próximo de uma consciência própria.

Mas, como as interfaces de comunicação automatizadas (tipo chatbots) estão ficando cada vez mais sofisticadas, reproduzindo a habilidade humana de encadear uma conversa, é normal que muitas pessoas se confundam e achem que estão falando com alguém do outro lado da tela.

O que é peculiar na história revelada no último domingo pelo Washington Post é que a confusão foi feita por um engenheiro da Google, que trabalhava no desenvolvimento de uma ferramenta para a empresa chamada LaMDA (Language Model for Dialog Application).

A notícia correu o mundo como um rastilho de pólvora: a Google teria afastado o engenheiro porque ele tornou públicas suas conversas com a aplicação inteligente e não obteve resultados quando levou à direção sua descoberta de que LaMDA, na verdade, tinha desenvolvido uma consciência.

Segundo o engenheiro, LaMDA conversa como "uma criança de 7 ou 8 anos que sabe física". A máquina teria revelado medo de ser desligada (como o HAL de "2001 - Uma Odisseia no Espaço"), afirmou que só deseja o bem de todos e fez reflexões sobre se, em sua relação com os humanos, ela se parece mais com um mordomo ou um escravo.

O engenheiro afirmou que seria preciso contratar um advogado para defender os direitos do robô e que via a ferramenta não como mais um chatbot, mas sim como um colega de trabalho. A empresa revisou as demandas e concluiu que não havia qualquer evidência de que a interface de comunicação tivesse consciência, muito pelo contrário. Ser consciente é diferente de parecer consciente.

Esse caso lembra o mito grego de Pigmaleão, que esculpiu uma estátua feminina tão perfeita que passou a tratá-la como se viva fosse. No final das contas, Afrodite se apiedou da situação e deu vida à escultura. Na história do engenheiro, ainda estamos na primeira parte.

Ficamos tão maravilhados com nossas criações que, quando elas simulam características humanas, é um pulo para que (de maneira consciente ou não) passemos a tratá-las como tal.

Existe até um certo didatismo nesse caso. Se, por um lado, nos encanta a sofisticação das aplicações de IA, é preciso sempre tentar enxergar o componente humano nessas histórias, recalibrando nossas expectativas sobre a relação entre pessoas e máquinas, além de nossa própria visão sobre o futuro.

Talvez muito mais revelador do que o grau de sofisticação das ferramentas que a Google está desenvolvendo seja a formação e a trajetória do engenheiro Blake Lemoine. Depois de servir ao exército americano, ele foi ordenado sacerdote cristão místico e passou a se dedicar ao estudo do ocultismo. Na empresa, trabalhou por sete anos com pesquisa empírica, incluindo algoritmos de personalização e IA, em especial buscando remover vieses nessas aplicações. Ele revelou em uma publicação que "em vez de pensar em termos científicos sobre essas coisas, escutei o que LaMDA dizia como se viesse do coração."

Pode ser que, lá na frente, a questão da consciência da IA apareça para valer, mas o que temos por enquanto são apenas ferramentas que estão ficando cada vez melhores em assimilar um grande volume de dados e processar essas informações no contexto de um diálogo.

Se uma máquina processou um corpus de conteúdos sobre ficção científica, discussões sobre autonomia das máquinas e toda série de especulações sobre o assunto encontradas na Internet, ela poderá ser capaz de entabular uma conversa sobre o tema. Mas isso não quer dizer que ela tenha adquirido consciência.

Dito de outra forma, uma máquina que sabe conversar sobre a consciência das máquinas em primeira pessoa não significa que ela tenha, de fato, adquirido consciência.

Mas então quando saberemos se as máquinas estão apenas processando e recombinando informações às quais tiveram acesso ou efetivamente ganharam consciência? Para responder a essa pergunta, vamos precisar de profissionais de TI para olhar o código, de cientistas e filósofos para investigar a natureza da consciência, e de Afrodite para dar um sopro.