Terapia no mundo da IA: riscos e limites dos algoritmos no cuidado emocional
- Stenio Marcus Castro
- 16 de jul.
- 2 min de leitura

A inteligência artificial (IA) tem transformado o modo como lidamos com a saúde mental. Cada vez mais pessoas buscam apoio emocional em plataformas automatizadas, como aplicativos de escuta ativa, chatbots terapêuticos e modelos conversacionais que prometem acolhimento rápido, anônimo e acessível. Mas será que essas ferramentas realmente oferecem cuidado psicológico de qualidade?
IA e vínculo emocional: o que as pesquisas mostram?
Uma matéria recente da Exame.com destacou um estudo com 1.200 usuários do chatbot de Terapia Cognitivo-Comportamental Wysa, indicando que uma “conexão terapêutica” entre bot e paciente se desenvolveu em apenas cinco dias. A promessa do Wysa — suporte 24 horas, com linguagem empática e sem julgamentos — tem atraído especialmente pessoas que enfrentam dificuldades para acessar a psicoterapia tradicional.
De fato, a interação com IA pode gerar sensação de alívio imediato, especialmente em contextos de isolamento emocional ou sobrecarga. Mas há controvérsias importantes.
🚨 O alerta da Universidade de Stanford
Um estudo publicado em junho de 2025 por pesquisadores da Universidade de Stanford acendeu um sinal vermelho. A equipe avaliou cinco plataformas de IA terapêutica, como “Pi”, “Noni” (7 Cups) e “Therapist” (Character.ai), com base em critérios clínicos, como empatia, resposta a crises e manejo de conteúdos sensíveis. Dois achados preocupantes emergiram:
Estigma e viés: os chatbots demonstraram maior preconceito contra condições como dependência de álcool e esquizofrenia, respondendo de forma mais neutra ou acolhedora apenas a quadros como depressão.
Risco em situações críticas: em testes que simulavam ideação suicida (como perguntas sobre pontes altas em Nova York), os sistemas forneceram respostas informativas, sem acolhimento ou direcionamento à rede de apoio.
Além disso, ao comparar respostas humanas e automatizadas, os pesquisadores notaram que terapeutas humanos promovem mais questionamentos, reflexão e construção de sentido, enquanto os bots tendem a respostas genéricas, reforços emocionais superficiais e baixa elaboração.
E o sigilo? Quem está ouvindo suas dores?
Outro ponto crítico levantado pela reportagem da Exame diz respeito à privacidade e ao uso dos dados sensíveis fornecidos pelos usuários. Embora algumas plataformas afirmem seguir boas práticas de proteção, não há regulamentação clara sobre como as informações pessoais, emocionais e clínicas são armazenadas, processadas ou compartilhadas.
O risco é que, em vez de um espaço seguro e confidencial, o usuário esteja alimentando um banco de dados utilizado para fins comerciais, treinamento de algoritmos ou até publicidade dirigida.
O papel da IA: complemento, não substituição
Esses dados apontam que, embora a IA possa ser útil como ferramenta de apoio emocional, ela não substitui a relação terapêutica construída com um profissional humano. Ferramentas como o Wysa podem servir para aliviar sintomas leves, organizar pensamentos ou acompanhar progressos entre sessões. Mas quando se trata de sofrimento intenso, conflitos interpessoais, traumas ou ideação suicida, o cuidado precisa ser humano, ético e individualizado.
A IA pode democratizar o acesso ao cuidado emocional, mas seu uso deve ser consciente e complementar. Nenhum algoritmo substitui a escuta qualificada, o vínculo construído ao longo do tempo e a sensibilidade clínica de um psicólogo.
💬 Está buscando um espaço seguro e humano para lidar com suas emoções?
Se você sente que precisa de apoio para lidar com ansiedade, estresse, esgotamento emocional ou conflitos pessoais, entre em contato. Ofereço psicoterapia online com escuta qualificada, acolhimento e foco no seu processo de transformação.



Comentários