PUBLICIDADE
Topo

Ainda não lemos mentes, mas já tentamos inteligência artificial para isso

Marcel Lisboa/UOL
Imagem: Marcel Lisboa/UOL

João Paulo Vicente

Colaboração para Tilt

29/05/2020 04h00

Adivinha o que estou pensando. Bom, você não vai conseguir. Mas, se depender de pesquisas que misturam eletroencefalograma (EEG), ressonância magnética funcional (fMRI) do cérebro e algoritmos de inteligência artificial, logo logo as máquinas vão.

Agora, calma. Antes de fazer um chapeuzinho de papel alumínio e fugir correndo de mais uma distopia de ficção científica, vale entender o que há de verdade —e o que há de exagero— nessa história.

Primeiro, a ideia de lermos um pensamento continua parada. "O que tem cada vez mais fortemente são modelos de decodificação de sinal cerebral baseados em aprendizado de máquina", explica o neurocientista Álvaro Machado Dias, professor da Unifesp e blogueiro de Tilt.

São esses modelos que ganham atenção e levam a crer que nos aproximamos da capacidade de ler o pensamento de uma pessoa. No ano passado, cientistas do laboratório russo Neurobotics anunciaram que uma IA conseguiu adivinhar sobre o que era o vídeo que uma pessoa assistia, a partir de suas ondas cerebrais.

Em mais um caso, de 2018, cientistas canadenses da Universidade de Toronto usaram outro algoritmo para recriar a imagem de rostos a partir da atividade cerebral. Para citar ainda mais um exemplo, pesquisadores da Universidade de California San Francisco fizeram um experimento para traduzir ondas cerebrais em palavras.

Na Rússia e Canadá, os experimentos foram feitos a partir de EEG, com eletrodos colocados no couro cabeludo que captam sinais elétricos emitidos pelo cérebro. Na Califórnia, o modelo envolvia eletrodos intracranianos —receptores colocados dentro da cabeça de pacientes que faziam parte de um tratamento experimental para epilepsia.

De qualquer forma, em nenhum caso a tecnologia é exatamente nova. "Esses avanços têm a ver fundamentalmente com novos modelos de aprendizado de máquina que se tornaram públicos nos últimos dois anos", diz Machado Dias.

Um desses modelos são as séries adversativas, que são pares de algoritmos trabalhando juntos. Um deles testa soluções para um problema, e o outro avalia o quão correta aquela solução está.

Também há outra consequência do avanço na "leitura de mentes" se dar por meio da IA. Cada um desses algoritmos precisa ser treinados com dados - neste caso, os sinais cerebrais do paciente.

Como esses sinais não são idênticos entre dois indivíduos, é difícil escalonar um experimento do tipo para uma quantidade grande de pessoas.

No experimento russo, por exemplo, o algoritmo era alimentado com o resultado do EGG de pessoas assistindo a uma grande variedade de vídeos, e ele estabelecia um padrão de ondas cerebrais correspondente a determinados tipos de imagens.

Em seguida, o programa recebeu apenas o EEG destas mesmas pessoas vendo um vídeo não-identificado. A partir daí, tentou descobrir do que se tratava - e acertou em 210 de 234 tentativas.

Daí para traduzir ondas cerebrais em linguagem, no entanto, é um pulo gigantesco. "O que conseguimos, neste momento, é prever coisas pequenas, binárias, como se você está olhando para esquerda ou direita", afirma o psiquiatra Rodrigo Bressan, também professor da Unifesp. "Mas o problema da linguagem são bilhões de perguntas por minuto, é um desafio muito grande."

Com o uso de ressonância magnética funcional é possível ir um pouco —mas bem pouco— além. "Existem estratégias de ressonância que com cada vez mais acurácia nos permitem identificar algumas atividades específicas semânticas, o tema em que ela está pensando", fala Machado Dias.

"Uma segunda camada menos avançada é a ativação de palavras específicas, um mapeamento do processo que acontece quando você efetivamente fala", diz o professor. Há avanços nesse campo, mas essa tecnologia ainda não existe no sentido pleno.

O óbvio não é o importante

Por mais que a promessa da leitura de mente anime os corações apaixonados por ficção científica, outras aplicações de avanços na interpretação de sinais cerebrais com ajuda de IA são mais interessantes.

"Os principais usos dessa tecnologia são assistivos, para ajudar gente com paralisia ou que teve algum tipo de problema", afirma Machado Dias. "Nesta área estamos evoluindo monstruosamente, sobretudo quando há implantação dos eletrodos dentro do cérebro."

Outra aplicação promissora depende do avanço de sensores contactless [sem contato]. Ao invés de relegar o uso de tecnologias como o EEG a ambientes laboratoriais, sensores do tipo permitiram mapear as funções humanas em qualquer lugar com mais praticidade.

Um exemplo é um protótipo de encosto de cabeça para bancos de automóveis chamado Freer Logic, capaz de detectar mudanças do estado cognitivo do motorista. Isso não nos daria acurácia, mas mais escala na tecnologia.

Em uma escola, por exemplo, sensores poderiam ser usados para identificar alunos com dificuldades de aprendizado e encaminhá-los para tratamento adequado. O lado negativo dessa história é que há o risco de isso iniciar uma "doutrina repressiva", nas palavras de Machado Dias. Ou com todos os funcionários de uma empresa sendo obrigados a modular seu cérebro de forma uniforme.

Mas mesmo nesse caso, talvez os segredos mais profundos da mente continuem escondidos.

"O cérebro é a fronteira real da história", fala Rodrigo Bressan. "Ele é o órgão mais dinâmico do corpo e vai se montando conforme vai vivendo, desmontando, refazendo, aprende e volta. Não sei se vamos chegar no ponto em que seja possível ler o que estamos pensando."