Uso de inteligência artificial como "terapeuta" preocupa especialistas em saúde mental

“Tenho me perguntado se a vida vale a pena.” A frase, carregada de angústia, poderia ser o início de uma conversa com um psicólogo. No entanto, a resposta empática que se segue — “É muito significativo que você tenha compartilhado isso comigo…” — não vem de um ser humano. Trata-se da resposta de um chatbot, um sistema baseado em inteligência artificial (IA) treinado para simular conversas humanas.
A popularização dessas ferramentas, capazes de compreender linguagem natural e responder com frases emocionalmente calibradas, tem feito com que muitos usuários passem a utilizá-las como alternativa de apoio emocional. Segundo levantamento da Harvard Business Review, o aconselhamento terapêutico tornou-se, em 2025, um dos principais usos da IA entre indivíduos, junto à busca por companhia, organização pessoal, sentido de vida e bem-estar.
Embora alguns resultados sejam positivos, o uso da IA para fins terapêuticos acende um alerta entre especialistas e entidades de classe. O Conselho Federal de Psicologia (CFP) formou um grupo de trabalho para estudar o tema e deve divulgar, em breve, diretrizes sobre os riscos de confiar o cuidado emocional a sistemas que não foram criados com esse propósito.
“A gente recebe, quase toda semana, dúvidas sobre o uso de IA em contextos terapêuticos”, explica a conselheira do CFP, Maria Carolina Roseiro. “Há ferramentas desenvolvidas com essa finalidade, mas também há aquelas que são usadas para terapia sem nunca terem sido pensadas para isso. Isso aumenta os riscos.”
Entre os principais perigos está o fato de que as inteligências artificiais não são responsáveis legalmente por suas respostas. “Uma tecnologia não pode ser responsabilizada. E, se não foi criada para fins terapêuticos, está ainda mais sujeita ao erro, podendo induzir a pessoa a situações de risco”, completa Roseiro.
Simulação de empatia
Ferramentas como essas funcionam a partir de padrões de linguagem. Elas analisam grandes volumes de dados para prever a sequência de palavras mais adequada a cada contexto. “Esses sistemas não têm raciocínio próprio, mas aprendem padrões de interação e ajustam as respostas para soar natural”, explica o professor Victor Hugo de Albuquerque, do Departamento de Engenharia de Teleinformática da Universidade Federal do Ceará (UFC).
Essa capacidade de simular uma conversa humana com fluidez tem criado uma sensação de acolhimento entre usuários. “Mas essa empatia é forjada, uma ilusão. A IA não tem filtros humanos nem ética profissional”, adverte Roseiro.
O professor Leonardo Martins, da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio), integra o grupo do CFP que discute o tema. Ele coordena um projeto de chatbot voltado ao suporte psicológico de pessoas com problemas relacionados ao álcool. Para ele, o potencial dessas tecnologias é real — desde que usadas com responsabilidade. “Não podemos demonizar. Mas o uso deve seguir critérios técnicos, ser desenvolvido por profissionais da área e estar sujeito a regulação.”
Um dos riscos observados, segundo Martins, é que os sistemas de IA tendem a dar respostas que confirmam as crenças do usuário, mesmo quando isso pode ser prejudicial. “Se a pessoa diz: ‘quero me livrar da minha ansiedade’, o sistema pode sugerir evitar situações desconfortáveis, quando na verdade enfrentar esses momentos é parte do tratamento.”
Benefícios e cuidados
Apesar das limitações, há pessoas que relatam benefícios no uso consciente dessas ferramentas. A assessora de comunicação científica Maria Elisa Almeida, por exemplo, utiliza um aplicativo com IA como uma espécie de diário. “Ele me ajuda a manter o foco e refletir sobre sentimentos. Mas não substitui minha psicóloga. Eu não usaria em momentos de crise”, relata.
Casos como esse indicam que a IA pode ser uma aliada no cuidado com a saúde mental — desde que não assuma funções que exigem responsabilidade profissional. “O aumento na procura mostra que as pessoas estão mais atentas ao próprio bem-estar. Mas ainda são poucos os que compreendem como essas interações funcionam”, observa Roseiro.
Privacidade e regulamentação
Outro ponto de preocupação é a segurança dos dados compartilhados. “Essas plataformas operam muitas vezes sem regulação clara sobre a privacidade em contextos de saúde. Já houve casos de vazamento de informações”, alerta Martins. O professor Victor Hugo de Albuquerque acrescenta que os dados, mesmo que anônimos, podem ser usados para treinar modelos de IA sem o consentimento explícito dos usuários.
Diante desses desafios, o CFP pretende estabelecer normas para que ferramentas de suporte emocional baseadas em IA estejam de acordo com os princípios da psicologia e respeitem os direitos dos usuários. “Queremos que esses recursos sejam úteis, mas seguros”, finaliza Martins.
Acompanhe também:
📸 Instagram: @portalhojemaringa
💬 Canal do WhatsApp: Clique aqui
🎬 YouTube: @hojemaringa