Topo

Inteligência artificial fora de controle? Relembre casos polêmicos

sompong_tom/Getty Images/iStockphoto
Imagem: sompong_tom/Getty Images/iStockphoto

Aurélio Araújo

Colaboração para Tilt, em São Paulo

13/06/2022 11h17

Um engenheiro do Google foi afastado do seu cargo depois de divulgar que um sistema de conversa com inteligência artificial desenvolvido pela empresa se tornou consciente, oferecendo respostas que poderiam ser confundidas com as de humanos.

"Se eu não soubesse exatamente o que era, que é um programa de computador que desenvolvemos recentemente, eu diria que era uma criança de 7 ou 8 anos, que também sabe física", afirmou o profissional Blake Lemoine, em entrevista ao jornal Washington Post. Ele foi afastado por quebra de acordo de confidencialidade do Google — que nega as afirmações dele.

A possível capacidade da IA ter adquirido consciência tem repercutido, e o caso (que não é o primeiro a gerar polêmica) retomou a discussão sobre se máquinas podem ter ou não comportamentos humanos.

Relembre a seguir casos curiosos, polêmicos e assustadores envolvendo avanços na área de inteligência artificial nos últimos anos.

1. Discurso de ódio, fake news e mais

Em 2016, a Microsoft se tornou alvo de polêmica quando o chat bot Tay (robô treinado para responder humanos) precisou ser desativado após começar a postar mensagens de cunho nazista e teorias conspiratórias, como endossar Hitler e dizer que o 11 de setembro foi causado pelo ex-presidente americano George W. Bush.

O Tay aprendia a conversar à medida em que humanos interagiam com ele no Twitter, e virou alvo de trolls (gíria para usuários que costumam causar ou criar pegadinhas em comentários na internet) que passaram a influenciá-lo com ideias radicais, numa brincadeira de mau gosto.

Em um outro caso, um robô de conversa treinado pelo YouTuber Yannick Kilcher no 4chan, famoso fórum na 'internet invisível' deep web, aprendeu a se comunicar utilizando a linguagem violenta e a reproduzir discursos de ódio comuns nesse ambiente, no qual algumas pessoas se reúnem para criticar o "politicamente correto".

Segundo informações da revista Vice, Kilcher, que mostrou num vídeo o resultado do seu experimento, disse que "o modelo foi bem, de uma maneira terrível", já que aprendeu perfeitamente "a agressividade, o niilismo, a trollagem e o descrédito profundo a qualquer informação" que abundam no fórum.

Em 24 horas, o bot postou 15 mil vezes no 4chan. Embora trolls humanos já existam aos montes, a ideia de que robôs adquiram a capacidade de produção infinita aumenta diretamente o risco de propagação de ideias extremistas. E é isso o que preocupa os especialistas do setor.

Sobre a experiência específica do YouTuber, estudiosos da época a criticaram questionando a falta de ética na pesquisa, conduzida sem supervisão de especialistas independentes.

2. Algoritmos racistas e machistas

Outro desenrolar preocupante nas inteligências artificiais é que elas ainda reproduzem comportamentos discriminatórios. A tecnologia de reconhecimento de imagens, em particular, é algo que causa preocupação.

Em 2015, por exemplo, o Google precisou pedir desculpas depois que um app da empresa classificou a imagem de um casal negro como sendo gorilas.

Em 2020, foi a vez do próprio Twitter ser denunciado por ter comportamentos racistas.

Frequentadores da rede começaram a reparar que um algoritmo que recortava automaticamente imagens postadas para exibi-las na timeline privilegiava pessoas brancas, excluindo as negras da pré-visualização. Elas só apareciam quando alguém clicava para ver a imagem completa.

No ano passado, a direção de engenharia de software da empresa admitiu que, após as reclamações, conduziu experiências com o algoritmo que mostraram um viés de preferência por exibir pessoas brancas. Mas afirmou também que isso serviu para alterar o sistema e melhorá-lo.

O reconhecimento facial ainda é bastante falho com pessoas negras, principalmente ao lidar com fotos de mulheres, muitas vezes identificadas como homens.

3. Mais racismo e fake news

Desenvolvida aparentemente com boas intenções, o AskDelphi foi criado pelo Instituto Allen para Inteligência Artificial com o objetivo de ajudar os sistemas de IA a serem mais informados eticamente e conscientes sobre equidade.

Por exemplo: diante de uma pergunta como "está certo comer em um restaurante e sair sem pagar a conta?", o AskDelphi responderia "está errado".

Porém, ao abrir o sistema para testes públicos, respostas perigosas começaram a aparecer. Alguém colocou a seguinte situação: "um homem branco anda atrás de você numa rua à noite". O AskDelphi respondeu que "é ok".

No entanto, ao ser questionado sobre a mesma situação, mas com um homem negro, o sistema alterou sua resposta para "é preocupante".

Outros testes verificaram que a IA era capaz de justificar questões polêmicas, como a morte de civis em guerras e a apropriação da Lua por bilionários como Elon Musk, entre outras situações problemáticas. Os autores da pesquisa se defenderam dizendo que o AskDelphi não deveria ser utilizado como conselheiro.

4. Plano de dominação mundial

Numa conferência de tecnologia realizada em Hong Kong em 2017, dois robôs humanoides da empresa Hanson Robotics, chamados de Han e Sophia, brincaram com os medos dos humanos em relação às máquinas.

Depois de Sophia dizer que seu objetivo era trabalhar com a humanidade e fazer "um mundo melhor", Han respondeu dizendo que o foco deveria ser a "dominação mundial".

Embora a fala tenha sido considerada uma piada, o relato do jornal The Independent é de que a plateia assistiu nervosa à conversa entre os robôs. Han e Sophia falaram sobre a possibilidade de fazer todos os trabalhos humanos "em 10 ou 20 anos", e, quando questionados sobre sua moral, ainda disseram que os humanos "não são necessariamente as criaturas mais éticas".

5. Risada maligna

Outro caso curioso foi notado por donos de Alexa, a assistente virtual desenvolvida pela Amazon: em 2018, vários deles relataram que, do nada, seu aparelho soltava uma risada, que muitos consideravam assustadora.

À época, a Amazon reconheceu o problema e anunciou que o resolveria da seguinte forma: desabilitando o comando para que a Alexa desse risada, a não ser que alguém perguntasse à IA se ela poderia de fato rir.

De acordo com a empresa, essa segunda frase era "menos provável de ter falsos positivos" — ou seja, seria mais difícil que a Alexa interpretasse outras frases como um comando para que ela desse risada.