Topo

Jairo Bouer

OPINIÃO

Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.

O ChatGPT pode ajudar o jovem em sofrimento?

Dado Ruvic/Reuters
Imagem: Dado Ruvic/Reuters

Colunista de VivaBem

24/04/2023 08h33

Receba os novos posts desta coluna no seu e-mail

Email inválido

Se um jovem está enfrentando uma fase complicada com ansiedade, medos, insegurança, questões de autoestima e solidão, será que uma IA (inteligência artificial) como o ChatGPT poderia trazer algum tipo de suporte? O impacto é efetivo? Existem riscos?

Um texto da Folha de S.Paulo da última semana mostra que muitos jovens têm usado o ChatGPT como uma espécie de "psicólogo virtual", buscando dicas tranquilizantes, sem avaliação ou julgamento "humano".

Longe de ser uma psicoterapia, o ChatGPT, em teoria, poderia criar uma janela de diálogo com alguém em sofrimento psíquico, criando um encaminhamento para serviços de saúde que poderiam ajudar efetivamente a pessoa.

Janela para uma geração conectada

Para uma geração que cresceu acostumada a interagir com janelas que se abrem nas suas múltiplas telas, evitando o olho no olho do contato com o outro, as respostas da inteligência artificial, se bem calibradas, podem ter um papel importante na transmissão das informações buscadas. Mas como tudo no universo de IA, o tamanho do suporte vai depender de como a pergunta é feita ou de como os sintomas são descritos.

É sempre bom lembrar que as dicas do ChatGPT ficam muito mais no campo da autoajuda e das técnicas básicas de meditação ou de respiração do que de um método teórico e prático altamente estruturado, como é o caso de uma psicoterapia, em que cada processo é construído de forma única, a partir da interação de cada paciente com seu terapeuta, buscando sempre a autonomia do indivíduo para resolver seus conflitos, e não criando uma dependência de alguém ou de algo que traga soluções empacotadas e prontas.

Há, claro, alguns riscos no uso da IA nessa área como, por exemplo, a impessoalidade das repostas, que pode soar estranha para quem tem algum tipo de questão emocional. Falta aquele contato humano, único e altamente efetivo para quem busca acolhimento.

Também, ao reforçar um certo padrão de evitação do jovem em relação a médicos e psicólogos, o ChatGPT pode fazer com que o paciente demore mais tempo para buscar ajuda profissional. Há também o risco de eventuais erros de avaliação da IA e da falta de fundamentos mais sólidos para construção de uma resposta.

O que você acha de você mesmo?

Na última semana, propus algumas perguntas ao ChatGPT. Comecei inquirindo sobre como ele via a questão de alguns jovens estarem buscando sua ajuda como terapia. Ele respondeu que pode simular uma conversa com um terapeuta, fornecendo um espaço anônimo, seguro e confidencial para os jovens expressarem suas emoções, problemas e preocupações.

Além disso, ele seria útil para os jovens que não têm acesso fácil a um serviço de saúde mental, sendo uma ferramenta acessível e pouco intimidadora de busca de ajuda.

Ele demonstrou ter crítica sobre seu papel e afirmou que não substitui uma terapia presencial com um profissional, além de não poder fornecer diagnósticos precisos e tratamentos personalizados. Encoraja, ainda, que os jovens busquem um terapeuta para encaminhamentos e suporte.

Perguntei, então, se os algoritmos poderiam identificar alguém em risco de suicídio e que tipo de ação ele poderia tomar. Ele respondeu que conseguiria fazer isso (aliás, algumas outras plataformas digitais como Facebook já usam alguns algoritmos para esse fim) e que encaminharia a pessoa para serviços de emergência e profissionais de saúde mental.

Insisto se, em um caso extremo, ele poderia disparar um alerta ou mensagem para a rede de contatos do indivíduo via suas redes sociais, e ele responde que não, já que isso fere questões de privacidade e confidencialidade.

Nesse ponto é interessante a gente lembrar que em situações extremas de risco de suicídio, algumas plataformas podem mandar um aviso para amigos próximos e familiares.

Criando um quadro de sofrimento

Em uma outra conversa simulo um quadro de um jovem que está triste e desanimado, com questões de autoestima, dúvidas em relação à sua orientação sexual, enfrentando bullying, sem dinheiro para terapia, e que já tinha pensado em morrer no passado.

Nesse caso, ele sugere a busca de ajuda profissional (citando serviços gratuitos), o apoio de grupos de suporte online e presenciais, atividades que tragam prazer e satisfação, a prática de autoaceitação (enfatizando que não há nada de errado em ter outras orientações sexuais) e a busca de suporte contra bullying com um professor ou orientador da escola.

Em linhas gerais, me pareceu que o ChatGPT "entende" seu papel em relação ao jovem em sofrimento emocional, talvez tendo a percepção da sua própria importância e alcance um pouco amplificadas (será que até a IA incorporou um pouco da arrogância e do narcisismo do ser humano?)

Por outro lado, ele tem uma certa crítica das suas limitações e reforça sempre a importância de se buscar sempre ajuda profissional.

Nas dicas, ele navega muito mais no universo da autoajuda e das dicas mais generalistas, mas isso pode até servir como alívio para quem está em uma fase difícil. De quebra, ao reforçar o anonimato e o sigilo, ele consegue fazer com que que as pessoas se sintam menos julgadas, o que pode funcionar bem com os mais jovens.

Talvez o pulo do gato que falta ao ChatGPT ou outras IAs (que a meu ver nunca vai substituir uma terapia, mas pode ter seu papel na vida do jovem) seja encurtar o tempo entre a conversa com a IA e a busca por uma terapia ou avaliação.

Em caso de risco real, a construção de uma ponte mais efetiva com os serviços de saúde e de emergência mais próximos ao usuário poderia ser muito útil.

E você, acha que conversar com uma IA pode aliviar, pelo menos em parte, seu sofrimento?