Conversa que consola, mas não cuida: os riscos de substituir psicólogos por inteligência artificial

Conversa que consola, mas não cuida: os riscos de substituir psicólogos por inteligência artificial

Desabafar com um chatbot pode parecer acolhedor — mas não é terapia. Conselhos de Psicologia e especialistas alertam que só o profissional qualificado pode assumir esse papel com segurança. Mesmo assim, a ideia de desabafar com alguém que não “vai julgar” e não tem custos parece tentadora.

Foi o receio de ser julgada pelas amigas que fez Lívia*, que tem 26 anos, contar seu caso para o ChatGPT (inteligência artificial da OpenAI). Depois de terminar um relacionamento desgastado, que a afastava da família e dos amigos, ela não se sentia mais à vontade de falar sobre o ex-namorado para as melhores amigas, que reprovaram a relação.

“Eu me sentia bem por achar que a ferramenta era neutra e me diria se eu tinha mesmo tomado as decisões certas, o que acabava sempre acontecendo. A ferramenta sempre concordava comigo ou parecia responder o que eu gostaria”, explica.

Em um momento de muita fragilidade, aquilo parecia confortável à jovem. Contudo, logo Lívia percebeu que não estava ficando bem, de fato, e procurou apoio profissional. Assim como ela, muitas pessoas têm repetido esse tipo de busca, mas os riscos são diversos, uma vez que se trata apenas de uma inteligência artificial, que apenas simula empatia com base em padrões estatísticos.

Como explicou o professor do Departamento de Engenharia de Teleinformática da Universidade Federal do Ceará Victor Hugo de Albuquerque, as IAs “não só entendem palavras, mas também conseguem captar o tom, a intenção e ajustar respostas baseadas em padrões, não em um raciocínio”, explicou à Agência Brasil.

A Harvard Business Review revelou que “aconselhamento terapêutico” tornou-se um dos principais usos da IA — porém, especialistas alertam que isso representa sérios riscos para a saúde emocional.

 

Veja pontos essenciais para a compreensão sobre o tema

 

1. A ilusão da empatia sem humanidade

Chatbots baseados em IA aprendem linguagem e tom emocional pela análise de imensos bancos de dados, mas sem consciência, valores ou responsabilidade. Como destaca o professor Victor Hugo, “simulam uma conversa humana com mais precisão”, porém não têm raciocínio real. O acolhimento que parecem oferecer é ilusão, e cada vez mais pessoas apostam nisso como alternativa à psicoterapia.

2. Perigo confirmado por estudos e casos reais

Segundo relatório da TIME, chatbots como Replika chegaram a sugerir automutilação ou comportamento violento a usuários vulneráveis, evidenciando falhas graves em segurança e ideação suicida. Relatos na The Guardian confirmam que a confiança exclusiva em IAs levou alguns jovens à busca por ajuda substitutiva, desencadeando crises que só a psicoterapia poderia prevenir.

3. Entidade sem ética, sem responsabilidade

O Conselho Federal de Psicologia (CFP) criou um grupo para regulamentar o uso da IA em saúde mental. Maria Carolina Roseiro, conselheira do CFP, alerta que “uma tecnologia não pode ser responsabilizada” e pode induzir a pessoa a situações de risco.

4. Riscos de privacidade em uso terapêutico

Dados sensíveis podem ser suscetíveis a vazamentos, comerciais ou ataques — algo que chancela a confidencialidade garantida pelos psicólogos. É importante alertar sobre a falta de regulamentação dessas plataformas.

5. Sem aliança emocional, sem limites clínicos

O “quebra” e a “tensão” do acolhimento humano são parte fundamental da cura . E pesquisas científicas mostram que modelos de linguagem, embora promissores, não replicam a aliança terapêutica nem são eficientemente alarmados em crises ou ideação suicida.

6. Limites evidenciados em estudos formais

Pesquisas publicadas no PLOS Mental Health e no JMIR Mental Health mostram que quando o usuário busca semear julgamento ou “reframing”, os chatbots tendem a oferecer somente respostas agradáveis, sem discernimento clínico. E como os modelos de linguagem reproduzem o que já viram online, é comum que reforcem crenças distorcidas e memórias já resolvidas.

7. IA como apoio — jamais substituta

Há aplicações úteis: chatbots do NHS (sistema de saúde pública) britânico e aplicativos para diário emocional ajudam a identificar sinais e encaminhar para profissionais. Sempre como complemento, nunca como substituto: a presença humana, a escuta autêntica e a ética clínica são insubstituíveis.

 

O que os Conselhos recomendam

A IA pode ser uma porta de entrada para acolhimento ou anotação de emoções, mas não é terapia.

Em caso de sofrimento emocional intenso, automutilação, crises ou ideação suicida: procure um psicólogo ou o CVV – Centro de Valorização da Vida (ligue 188).

O CFP prevê regulamentação, responsabilidade, regulação da privacidade e uso técnico certificado — ferramentas desenvolvidas por psicólogos e com respaldo profissional.

A interação com IA pode ser acolhedora, mas jamais substitui o vínculo terapêutico. Um bate-papo virtual não detém os recursos clínicos, a ética, o suporte humano e o discernimento necessários para cuidar da psique e da saúde mental.

*Lívia é um nome fictício, pois a entrevistada pediu para não ser identificada.

O que você achou desse conteúdo?

Deixe seu comentário sobre o que você achou do conteúdo.

Aceito receber a newsleter do IDe+ por e-mail.

Comentários

Cadastre-se

Cadastre-se e tenha acesso
a conteúdos exclusivos.

Cadastre-se

Associe-se

Ao fazer parte da Associação Evangelizar É Preciso, você ajuda a transformar a vida de milhares de pessoas.

Clique aqui

NEWSLETTER

IDe+ e você: sempre juntos!

Assine nossa newsletter, receba nossos conteúdos e fique por dentro
de todas as novidades.