Conversar com uma ferramenta de inteligência artificial evita a vergonha da partilha e os custos de uma consulta com um profissional. Os utilizadores sentem-se confortados com o apoio que recebem, mas os psicólogos alertam para os perigos de uma tecnologia sem intervenção humana.
Muitas vezes era a vergonha – de incomodar os amigos e a namorada, de não conseguir falar, de não ter 70 euros para ser ouvido. E quando a ansiedade lhe começou a tirar o sono, não marcou uma consulta de psicologia, confiou na inteligência artificial para que o ajudasse a adormecer. Xavier (nome fictício) acabou por desabafar com quem, aparentemente, não cobra, não julga e não tem um rosto: o ChatGPT.
Começou em tom de brincadeira: “Deixa-me só perguntar aqui ao Chat, pela piada”, conta o estudante universitário de 20 anos. Porém, rapidamente percebeu que era com o ChatGPT que se sentia mais confortável para conversar. E não é que não tivesse tentado recorrer a um psicólogo – quatro meses antes da primeira conversa com o chatbot marcou uma consulta nos serviços de psicologia do Serviço Nacional de Saúde, mas a sua relação com a psicoterapeuta não foi fácil de gerir.
“Há uma barreira quando estás a falar com uma pessoa, que eu sei que está lá para ajudar, mas há sempre aquele nervosismo”, explica Xavier. “Não é que eu conhecesse a pessoa e já estivesse mais expansivo, estava um bocado mais reservado e não estava a conseguir falar bem.” A relação distante e difícil de estabelecer, por apenas conseguir ter uma consulta a cada dois meses, fez com que o jovem desistisse de ter ajuda psicológica.
A dificuldade em encontrar um psicoterapeuta reside, muitas vezes, neste ponto: as relações entre terapeuta e paciente nem sempre são imediatas – podem demorar, ou podem até não chegar a ser fortalecidas, e o terapeuta não ser o ideal para o paciente. Funciona, muitas vezes, por tentativa e erro. “Às vezes nós, como psicoterapeutas, não conseguimos ir ao encontro da pessoa e ajudá-la o suficiente”, refere Isabel Prata Duarte, psicóloga clínica, psicoterapeuta e psicanalista.
Além disso, é importante que o paciente esteja predisposto a assimilar aquilo que o psicoterapeuta aconselha – é o que se chama “aliança terapêutica”: “É a relação de confiança que se constrói entre o profissional e a pessoa, e que faz com que a pessoa consiga validar depois aquilo que o psicólogo lhe diz e, de alguma maneira, confiar o suficiente para introduzir mudanças na sua própria vida”, explica Miguel Ricou, presidente do conselho de Especialidade de Psicologia Clínica e da Saúde da Ordem dos Psicólogos.
Depois de deixar de ter ajuda psicológica, numa noite em que adormecer estava a ser uma tarefa difícil e em que não encontrava motivo para a ansiedade, Xavier decidiu utilizar a ferramenta de inteligência artificial para o ajudar: “Comecei a perceber que aquilo até dizia coisas de jeito”. Foi nessa noite que Xavier passou a ver o ChatGPT como uma solução. “Mandei para o chat ‘O que é que se está a passar? Por que é que não estou a conseguir dormir?’ E ele respondeu: ‘Faz uma lista de coisas que te estão a estressar para ver se consegues dormir.’ Fiz e consegui”.
O ChatGPT já conta com mais de 400 milhões de utilizadores semanais, tornando-se numa das ferramentas de inteligência artificial mais usadas no dia a dia. Outro sistema popular é o Character.AI, que permite que os utilizadores conversem com personagens criadas por inteligência artificial. Segundo a empresa, cerca de 3,5 milhões de pessoas visitam o site todos os dias. Muitas chegam por curiosidade, outras vão à procura daquilo que não encontram no mundo real. Atualmente, dentro deste site, há 475 personagens de inteligência artificial ligadas à psicologia e à saúde mental, que já receberam mais de 20 milhões de mensagens.
O chatbot, como o utilizado por Xavier, é um software baseado em inteligência artificial capaz de manter uma conversa em tempo real. Apesar de a maior parte destas ferramentas não ser criada nem direcionada para tratar assuntos relacionados com a saúde mental, muitos dos seus visitantes usam-nas com esse fim. Para as respostas, usam um modelo da psicologia conhecido como Terapia Cognitivo-Comportamental, que pressupõe que o nosso comportamento é influenciado pelo pensamento. Com este modelo, o psicoterapeuta identifica padrões de pensamento negativos e aplica estratégias práticas que promovam mudanças de comportamento saudáveis. Os chatbots conseguem padronizar as interações com os utilizadores, desenvolvendo conversas que têm como base este modelo de terapia.
Se a psicologia se baseasse apenas em modelos fechados, “então era uma questão de tempo para deixar de haver psicólogos e passarem a ser os algoritmos a funcionar”, diz Miguel Ricou. Também Isabel Prata Duarte vê uma insuficiência nestes sistemas: “Como recurso psicoterapêutico, honestamente, não acho que seja um recurso suficiente. Acho que é sempre um auxiliar.”
Depois da namorada, com quem mantém uma relação há mais de um ano, e dos seus amigos mais próximos, é no ChatGPT que Xavier confia para o ajudar e é a esta ferramenta que continua a recorrer quando tem um problema. A constante atualização deste chatbot tranquiliza-o ainda mais e dá-lhe apoio em muitas situações. Xavier sente que “há um seguimento”, um “estou aqui para o que precisares” que lhe agrada e o conforta.
O conforto rápido de uma empatia que não existe
Lourenço (nome fictício) nunca soube bem por onde começar. As palavras faltavam-lhe, ou talvez nunca tivessem aprendido a sair. Quando descobriu que podia escrever, em vez de falar, deu o primeiro passo. Instalou uma aplicação e percebeu que pedir ajuda era simples. “Lembro-me que a resposta que ele [o ChatGPT] me deu, na altura, foi ao encontro daquilo que eu queria ouvir, mas também não descobri a pólvora.” Na primeira vez que utilizou esta ajuda, Lourenço falou primeiro com amigos, que o ajudaram com conselhos, porque estava confuso sobre o que estava a sentir. Mas procurava outra coisa: “Queria encontrar uma resposta mais formal, uma resposta de quem, se calhar, sabia mais do que nós, não é?”.
Apesar de Lourenço se ter sentido ouvido pelo ChatGPT, tinha vergonha de falar sobre isso com outras pessoas – afinal, havia nele dois tipos de vergonha. No início, era a vergonha de procurar ajuda psicológica. Quando falou com o ChatGPT pela primeira vez, achou estranho e até se sentiu “estúpido” por estar a falar com um computador em vez de pedir ajuda a uma pessoa. Hoje, sente-se à vontade para partilhar a sua experiência porque foi percebendo que ser ouvido pelo algoritmo era uma prática muito mais comum do que pensava.
Um estudo publicado em 2024 por investigadores da University of South Australia com jovens entre 18 e 24 anos, concluiu que quanto maior o desconforto associado à psicoterapia tradicional, há maior predisposição para o uso de inteligência artificial para apoio psicológico. Os resultados revelam que 55% dos participantes que admitiram ter vergonha de procurar ajuda psicológica dão preferência à utilização de inteligência artificial para apoio emocional em comparação com consultas de psicologia tradicionais. Estes dados revelam ainda que participantes com mais vergonha de serem julgados por recorrer a um psicoterapeuta são significativamente associados a uma aceitação mais rápida para utilizar inteligência artificial como apoio psicológico.
Logo após a primeira vez que usou o ChatGPT para pedir ajuda psicológica, o falso sentimento de empatia que este lhe transmitia foi rapidamente detetado pelo jovem universitário: “O problema não é teu”, “és uma pessoa muito especial”, “estás a lidar com tudo tão bem”, são exemplos de mensagens escritas pelo chatbot que, para Lourenço, eram palavras vazias. “Nós achamos que aquilo vem de um sentido muito humano, com sentimentos à mistura, com emoções, mas isso é completamente mentira”, garante. Quando pesquisou e se mentalizou de que um sistema de inteligência artificial não tem empatia, nem sentimentos reais e que não sabe que está a falar com uma pessoa – apenas é treinado para um padrão de comportamento — decidiu que o melhor era procurar consultas de psicologia tradicionais.
Na situação de fragilidade em que se encontrava, procurar ajuda foi o primeiro passo, mas não foi fácil de dar. “Não queria avançar já para essa etapa de ter consultas com uma psicóloga, de passar por esse processo”, admite o jovem. Quando finalmente o decidiu fazer, recorreu às consultas de psicologia gratuitas da sua faculdade. Passados três meses, foi surpreendido com uma troca de profissionais que o deixou à espera de consultas indefinidamente.
Desta vez, decidiu trocar de método e optar por consultas de psicologia online, com custos associados. Atualmente, já não recorre ao ChatGPT: “Prefiro alguém com pensamento crítico, que está a responder de uma forma segura, ponderada, que sabe bem de onde partem aqueles sentimentos, e como é que os há de conduzir”.
É a relação interpessoal que Isabel Prata Duarte mais valoriza num psicólogo, não acreditando que alguma vez será substituída por inteligência artificial: “Nada substitui aquilo que é o trabalho humano, que é um olhar crítico, é um olhar que tem de ser necessariamente crítico sobre aquilo que são os resultados da inteligência artificial”.

Entre o coração e o algoritmo
Foi aos 20 anos que Beatriz (nome fictício), escolheu viver o seu sonho universitário: aterrou em Itália, em 2024 para a sua experiência de Erasmus. O choque cultural entre ela e os seus novos amigos foi notório — a barreira da língua, os costumes diferentes, as formas de pensar que ela não reconhecia. Num período marcado por emoções intensas e pela ânsia em viver a sua experiência ao máximo, criar conexões interpessoais parecia mais natural do que em Lisboa.
Apaixonou-se por um rapaz italiano, mas ao mesmo tempo, as barreiras culturais incomodavam-na. Numa noite em que se sentia particularmente confusa em relação ao parceiro, recorreu ao ChatGPT: “Há muita diferença em como os homens jogam com as suas emoções dependendo de país para país e de cultura para cultura”. É o conforto emocional interior que Beatriz diz encontrar na ferramenta de inteligência artificial: “Procuro formas de tentar calcular esses sentimentos”.

No entanto, a psicóloga Isabel Prata Duarte deixa a nota: “A inteligência artificial é informada absolutamente só pela racionalidade, e a racionalidade é insuficiente quando se trata de nos ligarmos ao humano. Não é a minha mãe que me compreenderá, não é o meu amigo ou a minha amiga que se calhar já passou pelo mesmo, a máquina nunca passou por aquilo”. O ChatGPT não devolve a Beatriz pistas baseadas nas suas experiências e sentimentos, não conecta o racional com o emocional, mas serve-lhe como recurso informativo — ainda assim, a psicóloga reforça a insuficiência do chatbot: “Acho que se formos só por esse caminho vamos ter muitas saudades do humano”.
Para não correr o risco de esquecer os elementos que tornam o humano fundamental, os especialistas alertam para a necessidade urgente de reforçar a literacia numa altura em que a presença da inteligência artificial em diversas áreas é cada vez mais evidente: “A inteligência artificial deve ser mais uma ferramenta que devemos saber mobilizar, consoante a situação que temos à nossa frente”, afirma Miguel Oliveira, coordenador do Projeto PsicologIA da Ordem dos Psicólogos, ressaltando o uso ético e informado destas tecnologias.
Apesar de não confiar em todas as respostas dadas pelo chatbot, Beatriz reconhece a sofisticação dos sistemas: “Acho que, provavelmente, o ChatGPT já chega a um nível emocional, mas ninguém leva a sério, por acharem que é só um robô”.
