ChatGPT como “terapeuta”? Especialistas alertam para riscos do uso emocional de IAs

ChatGPT como “terapeuta”? Especialistas alertam para riscos do uso emocional de IAs

CFP discute regulamentação após aumento de pessoas que usam inteligência artificial para desabafar e buscar apoio psicológico

Diálogos profundos e aparentemente empáticos com chatbots têm levado cada vez mais brasileiros a tratar inteligências artificiais como o ChatGPT como “terapeutas digitais”. Um levantamento da Harvard Business Review aponta que a busca por aconselhamento emocional é um dos principais usos de IAs em 2025. O Conselho Federal de Psicologia (CFP), no entanto, alerta para os riscos: como essas ferramentas não foram projetadas para saúde mental, podem dar conselhos inadequados ou até perigosos em crises. Um grupo de trabalho foi criado para discutir regulamentações e orientar a população.

Embora algumas IAs especializadas – como um chatbot do sistema de saúde britânico – tenham aumentado a procura por ajuda profissional, especialistas destacam que plataformas genéricas tendem a apenas “agradar” o usuário, reforçando comportamentos prejudiciais. Outra preocupação é a privacidade: dados sensíveis compartilhados em conversas podem ser armazenados ou vazados. “A máquina simula empatia, mas não substitui o filtro ético de um profissional”, afirma Maria Carolina Roseiro, conselheira do CFP.

Foto: Marcelo Camargo/Agência Brasil

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *