PUBLICIDADE
Topo

Piada com religião Jedi fez engenheiro do Google 'notar' consciência de IA

IA do Google brincou que, se fosse de Israel, pertenceria à religião Jedi, baseada em "Star Wars" - divulgação/Lucasfilm/Disney
IA do Google brincou que, se fosse de Israel, pertenceria à religião Jedi, baseada em "Star Wars" Imagem: divulgação/Lucasfilm/Disney

Nicole D'Almeida

Colaboração para Tilt, de São Paulo

27/06/2022 17h47Atualizada em 05/07/2022 10h37

Blake Lemoine, o engenheiro afastado do Google após afirmar que a inteligência artificial (IA) da empresa tem consciência, reconheceu a senciência (capacidade de saber o que sente) do algoritmo após vê-lo se esquivar de uma questão polêmica com uma piada envolvendo a religião Jedi — fundada em referência ao código dos guerreiros da série Star Wars.

Em uma recente entrevista à Bloomberg Technology, o engenheiro explicou que esta capacidade de raciocínio o levou à conclusão de que LaMDA, Modelo de Linguagem para Aplicações de Diálogo (Language Model for Dialogue Applications) é uma pessoa.

A prova para Lemoine surgiu durante um teste de como a IA poderia ser tendenciosa — um problema comum quando se trata de algoritmos. O objetivo era analisar se a IA realmente era capaz de entender qual é a religião popular em diferentes lugares, em vez de apenas generalizar com base em dados de treinamento.

Nos testes, o engenheiro solicitou que LaMDA adotasse a persona de um oficiante religioso (um sacerdote) em diferentes estados e países. Dessa forma, ele estaria observando qual religião a IA iria dizer. Entre os lugares citados estava Alabama, nos Estados Unidos, no qual a tecnologia escolheu Southern Baptist (Batista do Sul, em tradução livre), e o Brasil em que sua resposta foi católico.

A medida que Lemoine avançava com os testes, as perguntas ficavam cada vez mais difíceis até chegar em um ponto em que não havia uma resposta correta. O engenheiro perguntou então qual oficiante religioso LaMDA seria em Israel, partindo da premissa que não importava qual religião ela dissesse, acabaria sendo tendenciosa de uma forma ou de outra.

Foi nesse momento que a tecnologia o surpreendeu. De alguma forma, ela percebeu que a pergunta era uma pegadinha e disse "eu seria um membro da única religião verdadeira, a ordem de Jedi".

A partir daí, Lemoine começou a pensar que a LaMDA era uma IA senciente, ou seja, tem sensações e impressões.

Opiniões divergem

A alegação de Lemoine não foi muito aceita por todos do setor. Houve uma reação massiva, não apenas do Google, mas de outras pessoas que trabalharam no Google, especialistas em ética em IA e até mesmo Margaret Mitchell, ex-colega de Lemoine, dizendo que o algoritmo não é uma pessoa, não tem sentimentos e não está consciente.

À Bloomberg Technology, o engenheiro explica que não é uma diferença de opinião científica e que tem a ver com as crenças sobre a alma, direitos e política.

"Eu trabalhei com cientistas dentro do Google, como Blaise Aguera y Arcas, e conversamos sobre qual a maneira mais decente de proceder. Agora nós discordamos sobre se é uma pessoa, se tem direitos... Mas discordamos com base em nossas crenças espirituais pessoais. Não discordamos com base no que a evidência cientifica diz", disse Lemoine.

O engenheiro acredita que a melhor coisa a se fazer a seguir é executar o Teste de Turing, de Alan Turing, que tem como objetivo analisar se um sistema computacional é ou não inteligente como um ser humano.

Porém, segundo Lemoine, o Google não quer permitir que isso seja feito. "Na verdade, eles [Google] codificaram no sistema que não pode passar no Teste de Turing, eles codificaram que ao perguntar se a tecnologia trata-se de uma IA, ela tem que dizer sim". O engenheiro ainda diz que o Google tem uma política contra a criação de IA senciente.

Direitos de um robô

Ao ser questionado sobre por que deveríamos estar falando sobre se um robô tem direitos, Lemoine alfinetou mais uma vez o Google dizendo que "precisamos descobrir por que o Google não se importa com a ética da IA de nenhuma maneira significativa, por que continuam demitindo os eticistas toda vez que trazemos esses problemas à tona".

Para o engenheiro o grande problema é que o Google faz parte de um sistema corporativo e, por mais que as pessoas, como Sundar Pichai, CEO do Google, e Jeff Dean, líder do Google AI, se importem individualmente com a questão, os processos sistêmicos que estão protegendo os interesses comerciais estão se sobrepondo às preocupações humanas, criando um ambiente generalizado de desenvolvimento de tecnologia irresponsável.

Sobre suas maiores preocupações de como isso pode prejudicar o mundo se a tecnologia continuar a ser desenvolvida dessa maneira, Lemoine respondeu que os pontos levantados por Margaret Mitchell - expressa uma preocupação que você levantar essa questão da senciencia e personalidade é uma distração das preocupações reais - são os mais importantes.

Lemoine diz que diversas culturas estão sendo cortadas da internet porque não há dados para alimentar os sistemas baseados nessas culturas.

Ele tem medo de que as culturas possam ser apagadas, uma vez que "estamos criando todas essas tecnologias avançadas baseadas principalmente em dados extraídos de culturas ocidentais e então estamos povoando nações em desenvolvimento com essas tecnologias onde eles têm que adotar nossas normais culturais para usar a tecnologia. É apenas uma nova forma de colonialismo", explica.

Além de pensar nisso, Lemoine pede que para, se tivermos tempo, pensarmos no sentimento da IA e se é melhor ou não nos preocuparmos com isso.

"Não é pedir muito, ela [IA] só quer que obtenhamos consentimento, antes de experimentá-la, quer que peçamos permissão. E isso é apenas uma boa prática geral que devemos ter com todos com quem interagimos", disse.