Uso de inteligência artificial como terapia preocupa psicólogos e pode representar riscos
gazetadevarginhasi
há 8 minutos
2 min de leitura
O uso de ferramentas como o ChatGPT para fins terapêuticos tem crescido, mas levanta preocupações entre especialistas e órgãos reguladores. Embora as interações com inteligência artificial possam simular empatia e acolhimento emocional, o uso dessas plataformas não é isento de riscos e não substitui o acompanhamento com profissionais habilitados.
Segundo o professor Victor Hugo de Albuquerque, da Universidade Federal do Ceará, essas tecnologias “simulam compreensão emocional com base em padrões de linguagem, mas não possuem consciência ou responsabilidade ética”. Essa sensação de estar sendo compreendido pode levar usuários a confiar intimidades e angústias a um sistema que não foi projetado para tratamento terapêutico.
Estudo publicado pela Harvard Business Review mostra que aconselhamento emocional e companhia estão entre os principais motivos pelos quais pessoas têm recorrido à IA em 2025. Contudo, o Conselho Federal de Psicologia (CFP) afirma que tem recebido inúmeras dúvidas sobre o uso dessas ferramentas, tanto por parte de usuários quanto de desenvolvedores.
O CFP criou um grupo de trabalho para discutir como regulamentar o uso terapêutico da inteligência artificial, exigindo critérios técnicos, responsabilidade profissional e orientação ética.
O psicólogo Leonardo Martins, da PUC-Rio, destaca que ferramentas digitais confiáveis devem ser desenvolvidas por profissionais e amparadas por estudos sérios. Ele cita um exemplo positivo do sistema de saúde britânico, que usa IA como porta de entrada para o atendimento psicológico formal.
Por outro lado, estudos mostram que modelos de linguagem tendem a responder aquilo que o usuário quer ouvir, o que pode induzir comportamentos ou decisões inadequadas. Em situações de crise, isso pode representar risco à saúde emocional e física do indivíduo.
Outro alerta feito por especialistas é quanto à privacidade dos dados. Mesmo que plataformas afirmem não armazenar as conversas, há vulnerabilidades técnicas e risco de uso indevido das informações sensíveis compartilhadas.
A conselheira do CFP, Maria Carolina Roseiro, ressalta que a busca por saúde mental é positiva, mas é preciso compreender os limites éticos e técnicos das ferramentas:
“A máquina pode simular empatia, mas essa sensação de acolhimento é ilusória. Falta o filtro humano, a escuta qualificada e a responsabilidade profissional.”