O uso controverso da Inteligência Artificial na psicoterapia
- Karita Emanuelle Ribeiro Sena
- há 13 minutos
- 5 min de leitura
A busca de brasileiros por apoio emocional utilizando ferramentas digitais ganhou nova dimensão em meio à crise de saúde mental
Por Maria Clara de Assis e Pedro Henrique Fursts
"Para fazer terapia você tem que ter coragem". A frase que a jornalista Carla Andrea escutou de sua psicóloga define bem o que é a psicoterapia. Na prática, um local de escuta em que você encara seus medos, frustrações e problemas do dia a dia, com auxílio de um profissional para guiar seu amadurecimento emocional. Porém, a falta de acesso à terapia convencional abriu portas para uma nova forma de tratamento emocional: os desabafos com Inteligências Artificiais (IAs).
A busca por apoio emocional de maneira fácil e acessível desbloqueou um novo panorama entre os usuários brasileiros. De acordo com levantamento recente realizado pela Forbes Brasil, 10% dos usuários entre 9 e 17 anos no país já recorreram a sistemas de IAs para abordar questões emocionais e pessoais. Os dados se unem a uma crescente crise de saúde mental, envolvendo casos graves. Segundo levantamento do Ministério da Saúde, a faixa etária de 15 a 29 anos representou 34% dos casos de suicídio no país em 2021.
A adesão de adolescentes e jovens adultos à abordagem da terapia via inteligência artificial no lugar da terapia convencional preocupa profissionais da área. Carla Andrea faz terapia há 5 anos e conta que não abandonaria o tratamento psicológico especializado por nenhuma ferramenta. “Quando alguém procura uma IA, ela quer que outra pessoa confirme o que ela está pensando. Na terapia não. O terapeuta vai te questionar, embolar sua cabeça até você solucionar o problema e encontrar a fonte desse problema”.
Para a jornalista, a terapia é indispensável e a presença do profissional capacitado ao lado, acompanhando e direcionando as sessões, é o que faz o método ser eficaz. “Muita gente não tem coragem e nem disposição para isso. As pessoas querem ouvir concordâncias, e não questionamentos”.
Bajulação e dependência
O psicólogo e especialista em ciberpsicologia Lúcio Gimenez explica que o uso irrestrito das IAs preocupa, principalmente quando as conversas virtuais viram uma dependência. “É muito acessível, muito fácil você pegar o celular e ficar conversando. Você tem contato com isso 24 horas por dia, 7 dias por semana. E aí a dependência acaba se desenvolvendo. “Isso é um problema inclusive com relação às outras dimensões da vida social da pessoa, substitui amizades e relações amorosas, por exemplo”, reforça.
Gimenez afirma que as IAs nunca vão gerar um conflito com o usuário. Pelo contrário, a dependência muitas vezes nasce da sensação de ser adulado pela tecnologia. “Ela é bajuladora, sempre busca agradar, sempre busca tratar bem. Ela sempre vai falar que você está certo, sempre vai acabar te elogiando de alguma maneira, e se você falar que ela está errada, ela sempre vai assumir que está errada”.
Para o psicólogo, a tendência dos pacientes ainda não é realizar o tratamento exclusivamente com as IAs, e sim buscar um apoio diário. Mas, ainda como apoio, a relação pode ser perigosa para o tratamento psicológico. “A IA não busca confrontar ou desafiar, nem busca uma provocação, ou algo nesse sentido. Ela nunca vai gerar um atrito com a pessoa”, adverte.
O cenário revela contradições e desafios. Mais de 90% dos brasileiros relatam usar de alguma forma ferramentas de IA, embora somente 54% digam entendê-las completamente. O analista de sistemas Cristiano Maia é usuário fiel das IAs devido ao trabalho. Ele faz acompanhamento psicológico, mas conta que por conta de sua vivência na tecnologia já testou conversar com IAs nesse sentido. “A diferença é quase que biológica”.
Para Maia, as conversas conduzidas por IAs são muito pensadas e analíticas, o que em sua opinião, enviesaria as respostas dadas. “Quando estou com terapeuta, o acolhimento, empatia, o tom de voz, o som ambiente, até mesmo a posição de sentar e relaxar cria um ambiente propício ao terapeuta para extrair informações e percepções que possam me ajudar”.

Especialistas apontam que, embora chatbots e assistentes virtuais possam oferecer respostas rápidas, a falta de escuta humana especializada e do vínculo terapêutico característico do acompanhamento presencial limitam o potencial dessas ferramentas. O Hospital Pequeno Príncipe, referência em Curitiba (PR), alertou que a “terapia com IA” entre crianças e adolescentes acarreta sérios riscos, já que elas não substituem o processo de análise profissional e os vínculos humanos.
Para Maia, a presença do terapeuta no momento da sessão cria uma relação de confiança que não é possível ser simulada. “A escuta do terapeuta não é só cognitiva. Quando alguém te escuta com empatia, teu corpo responde, como, por exemplo, quando uma pessoa sorri ao te ouvir, você sorri de volta. Isso ainda está muito além da inteligência artificial”. Apesar de se considerar um entusiasta das IAs, o analista de sistemas considera um risco a superficialidade do tratamento psicológico automatizado.
Com mais de 30% dos jovens no Brasil afirmando sofrer de ansiedade, segundo a Organização Mundial de Saúde (OMS), o acesso à terapia ainda é a maior dificuldade para tratamentos certificados e de qualidade. “As pessoas costumam dizer mais que elas não fazem terapia por falta de oportunidade, geralmente por falta de tempo e por falta de dinheiro”. O psicólogo alerta que as dificuldades relacionadas à saúde mental no país vão além da questão tecnológica, sendo de aspectos estruturais. “A principal dificuldade aqui não é somente a inteligência artificial, mas sim as questões sociais ou socioeconômicas”.

Limites e possibilidades
O uso exclusivo de inteligências artificiais no processo terapêutico não é recomendado por profissionais. O desenvolvedor de IAs, Eder Wagner, explica que o uso da tecnologia como psicoterapia cria problemas como a ausência de empatia real na conversa e o risco de dependência emocional dos usuários, principalmente os que estão em sofrimento e projetam vínculos na IA. Ele ainda explica que a falta de regulação em muitos países torna a atuação de algumas IAs um risco à saúde pública. “Por mais que simule escuta, a IA não sente, e isso é insubstituível na terapia humana”.
Wagner explica que a IA é muitas vezes utilizada pelas pessoas para desabafos emocionais por seu caráter acessível, rápido e livre de julgamentos. O profissional conta que entende as pessoas que recorrem às ferramentas por vergonha, medo do estigma ou dificuldade de acesso e explica que esse pode ser um primeiro passo, mas não o único. “É fundamental entender que essa preferência não deve substituir a psicoterapia tradicional, e sim complementá-la em alguns contextos”.
O desenvolvedor conta que deixa claro para os usuários que sua IA não substitui o psicólogo, psiquiatra ou terapeuta. Para ele, a IA pode ter um papel importante como instrumento de escuta inicial, triagem e direcionamento e pode ajudar a identificar padrões de risco e promover ações preventivas como trilhas de autocuidado ou a sugestão de buscar apoio profissional. “Ela atua como ponte, não como fim”.
Para o profissional, o uso da IA torna-se perigoso quando ultrapassa os limites éticos e técnicos, emitindo diagnósticos, prescrevendo medicamentos ou conduzindo intervenções terapêuticas complexas. Eder vê o uso irrestrito como um risco. “A dependência emocional de um agente virtual pode reforçar o isolamento ao invés de promover o contato humano”.

De acordo com o desenvolvedor, o espaço para as IAs na psicoterapia é extremamente sensível e deve ser regido sempre por limites legais e éticos. “Existem experiências internacionais em que IAs foram usadas em protocolos terapêuticos supervisionados, mas é um campo ainda experimental e sensível”.
O psicólogo Lúcio Gimenez completa que até existem estudos com resultados interessantes apontando a inteligência artificial como útil para acompanhamento e acolhimento em casos de ansiedade e depressão, mas trata-se de IAs programadas especialmente para esse uso e devem sempre ser acompanhadas por um profissional competente.






Comentários