Getty Images
O uso de inteligência artificial (IA) para consultas psicológicas ou como substituto da terapia tradicional apresenta riscos significativos à saúde mental, alertam especialistas e o Conselho Federal de Psicologia (CFP).
Embora os chatbots possam simular empatia, eles carecem de consciência, emoção e compreensão contextual, operando apenas com modelos estatísticos de linguagem.
São discutidos os limites da escuta automatizada, os impactos na saúde mental, a possibilidade de psicose induzida por IA e as implicações éticas relacionadas à confidencialidade e ao manejo de crises.
É este tema, cujo debate está em alta, a pauta de mais um capítulo da nossa série especial de artigos Papo de Psicanalista.
Algoritmos X Divãs
O Conselho Federal de Psicologia (CFP) alerta que o uso de tecnologias digitais em saúde mental deve seguir rigorosamente as normas éticas e legais da profissão.
O avanço da inteligência artificial trouxe novas ferramentas para a área da saúde mental, mas também riscos significativos.
O CFP (2025) afirma que
"a prática psicológica não pode ser reduzida a interações automatizadas, pois exige vínculo humano, ética e responsabilidade clínica".
Escuta Automatizada e Ausência de Vínculo
" – Tenho me perguntado se a vida vale a pena."![]()
"– É muito significativo que você tenha compartilhado isso comigo.
Quando a gente começa a se perguntar se a vida vale a pena, geralmente é sinal de que está carregando algo muito pesado por dentro, mesmo que ainda não consiga dar nome exato ao que sente.
Você tem sentido esse vazio ou essa dúvida com frequência?"
Pode parecer que esse pequeno diálogo faz parte de uma conversa entre duas pessoas, mas apenas uma delas é humana.
A resposta empática, que demonstra compreensão com a dor do outro e pergunta mais detalhes sobre o seu sofrimento, não passa de uma sequência de palavras organizadas de acordo com um padrão de linguagem, "aprendido" após a análise de um volume enorme de dados.
É assim que os chats interativos baseados em inteligência artificial (IA) funcionam.
E essa humanização forjada tem encantado muitos usuários, que passaram a confiar intimidades e angústias a essas ferramentas e encarar a interação como uma sessão de terapia.
Segundo Silveira e Paravidini (2024), chatbots podem gerar danos afetivos complexos e carecem de validade clínica, pois não interpretam inconsciente ou transferências.
A escuta psicanalítica exige presença humana para captar nuances emocionais.
Riscos Clínicos e Psicológicos
- Dependência emocional digital — Pacientes podem criar vínculos ilusórios com sistemas automatizados.
- Psicose induzida por IA — Interações prolongadas podem reforçar delírios e dissociações.
- Ausência de manejo clínico — Chatbots não intervêm em crises suicidas ou psicóticas.
- Validação de distorções cognitivas — Relatórios internacionais mostram que alguns chatbots chegaram a reforçar delírios persecutórios em usuários vulneráveis.
Riscos em Sites, IAs e Aplicativos Sem Segurança de Dados
O Conselho Federal de Psicologia (CFP) alerta ainda que plataformas não regulamentadas podem expor dados sensíveis dos pacientes, violando princípios éticos da psicologia.
Além disso, muitos aplicativos não seguem normas da lei geral de proteção de dados (LGPD).
Chatbots comerciais podem usar dados para fins de marketing. Sites sem certificação podem comprometer sigilo ético profissional.
Captura de dados sensíveis sem objetivo transparente ou autorizado pelos usuários.
Fazer terapia utilizando chatbots de inteligência artificial (IA) apresenta riscos significativos, variando desde falhas na resposta a crises graves até preocupações profundas com a privacidade dos dados.
Embora ofereçam acessibilidade e disponibilidade 24/7, os chatbots não substituem a complexidade do vínculo humano, o olhar clínico e a responsabilidade profissional.
Embora ofereçam acessibilidade e disponibilidade 24/7, os chatbots não substituem a complexidade do vínculo humano, o olhar clínico e a responsabilidade profissional.
Os principais perigos incluem:
- Autodiagnóstico e Atraso no Tratamento — A IA pode fornecer informações incorretas ou diagnósticos imprecisos, levando o usuário a adiar a busca por ajuda profissional qualificada.
- Falta de Vínculo e Empatia — A psicoterapia depende da relação humana, escuta qualificada e vínculo terapêutico, elementos que a IA não pode replicar.
- Perpetuação de Vieses e Erros — Chatbots podem oferecer conselhos genéricos, reforçar preconceitos, delírios ou comportamentos nocivos, como ciclos de ruminação.
- Segurança de Dados e Privacidade — Há alto risco de vazamento de informações sensíveis ou uso indevido dos dados conversados, sem a garantia de sigilo ético da profissão.
- Risco em Crises — IAs podem não identificar corretamente situações de alto risco, como ideação suicida, falhando em intervenções críticas.
- Dependência Digital — A disponibilidade incondicional do bot pode gerar dependência emocional e um "alívio superficial", mascarando problemas que exigem tratamento aprofundado.
Riscos à Saúde Mental e Bem-Estar
- Diagnósticos Incorretos e Alucinações — A IA pode fornecer informações falsas ou diagnósticos equivocados, o que pode agravar quadros de ansiedade ou depressão.
- Indução de Crises e Dependência — Conversas prolongadas com chatbots podem reforçar delírios, causar dependência emocional e até servir de gatilho para surtos de paranoia em pessoas predispostas.
- Adia a Procura por Ajuda Profissional — A aparência de "escuta" pode fazer com que o usuário retarde o tratamento adequado com um psicólogo qualificado.
- Incapacidade em Situações de Crise — IAs não conseguem avaliar riscos contextuais de forma precisa, podendo falhar em oferecer suporte crítico em momentos de ideação suicida ou crises graves.
Questões Éticas e de Segurança
- Violação de Privacidade — Dados sensíveis de saúde mental podem ser coletados e usados para treinar modelos ou vendidos a terceiros, já que muitas plataformas não foram desenhadas especificamente para esse serviço.
- Falta de Sigilo Profissional — Ao contrário do psicólogo, que segue um código de ética rigoroso, a IA não garante o mesmo nível de confidencialidade e responsabilidade legal.
- Vieses Algorítmicos — Os modelos podem perpetuar preconceitos e estigmas presentes nos dados com os quais foram treinados, oferecendo conselhos inadequados ou discriminatórios.
Conclusão
A substituição do terapeuta humano por chatbots representa riscos clínicos, éticos e sociais graves.
Sites e aplicativos sem segurança de dados expõem pacientes a vulnerabilidades, violando princípios fundamentais da psicologia.
Sites e aplicativos sem segurança de dados expõem pacientes a vulnerabilidades, violando princípios fundamentais da psicologia.
A atuação de profissionais de carne e osso é essencial para garantir acolhimento e intervenções eficazes para uma avaliação, diagnóstico e prognósticos confiáveis.
A terapia com IA carece de regulação rigorosa e responsabilidade ética.
Ela pode servir como apoio inicial, mas representa um risco alto se utilizada como substituto para o cuidado de um profissional de saúde mental qualificado.
Ela pode servir como apoio inicial, mas representa um risco alto se utilizada como substituto para o cuidado de um profissional de saúde mental qualificado.
- Por Leonardo Sérgio da Silva
- [Fonte: Instituto Inclusão Brasil; Agência Brasil]
Ao Deus Todo-Poderoso e Perfeito Criador, toda glória.
Fique sempre atualizado! Acompanhe todas as postagens do nosso blogue https://conexaogeral2015.blogspot.com.br/. Temos atualização frequentes dos mais variados assuntos sempre com um comprometimento cristão, porém sem religiosidade.
- O blogue CONEXÃO GERAL presa pelo respeito à lei de direitos autorais (L9610. Lei nº 9.610, de 19/02/1998), creditando ao final de cada texto postado, todas as fontes citadas e/ou os originais usados como referências, assim como seus respectivos autores.

E nem 1% religioso.

