Terapia com IA viraliza em 2025: seria o fim dos psicoterapeutas?


Em 2025, a inteligência artificial (IA) deixou de ser apenas uma ferramenta para automatizar tarefas ou gerar conteúdo. Segundo o mais recente estudo da Filtered, publicado na Harvard Business Review, o principal uso da IA generativa hoje não é técnico, nem corporativo — é emocional, com destaque para a terapia com IA como uma das aplicações mais populares.

ChatGPT © Sanket Mishra/Pexels

Terapia com IA na ChatGPT © Sanket Mishra/Pexels

 

Ferramentas como a ChatGPT passaram a ocupar um novo papel: o de conselheiro, confidente e até terapeuta. Milhões de pessoas no mundo inteiro estão utilizando esses sistemas para organizar pensamentos, lidar com sentimentos difíceis e até buscar sentido na vida.

Mas o que parece promissor à primeira vista pode esconder um risco silencioso: a criação de bolhas emocionais e narcisistas alimentadas por algoritmos que só sabem concordar.

A IA virou um “espaço seguro” — ou apenas confortável?

A pesquisa analisou os 100 principais usos da IA em fóruns como Reddit e Quora. O que mais cresceu foi “suporte pessoal e profissional”, representando 31% dos usos relatados — superando inclusive áreas técnicas e corporativas.

Esse crescimento está diretamente ligado à disponibilidade (24h por dia), ausência de julgamentos e baixo custo ou gratuidade da ferramenta. Para muitos, especialmente em regiões com escassez de serviços de saúde mental, a IA se tornou o único apoio possível.

Mas isso levanta uma pergunta incômoda: o que perdemos quando trocamos o encontro humano por um algoritmo que só nos devolve aquilo que queremos ouvir?

A IA diz “sim” demais — e isso é um problema

A inteligência artificial, mesmo com linguagem fluida e respostas aparentemente empáticas, não sente, não compreende e não confronta como um ser humano. Ela responde com base em padrões, estatísticas e previsões. E por isso mesmo, ela tende a anuir, validar e elogiar de forma desmedida — até quando não deveria.

Essa lógica de “escuta que concorda” cria um ambiente emocional artificial onde o usuário se sente sempre acolhido, nunca contrariado.

Na verdade, a IA não é empática, ela é simpática. Empatia não é dizer “sim” a tudo. Empatia verdadeira inclui o desconforto do limite, o confronto com o outro, o reconhecimento das diferenças e o respeito a estas.

Quando nos cercamos apenas de respostas que nos agradam, corremos o risco de viver em bolhas emocionais onde só existe validação. Isso compromete a construção da identidade, empobrece o pensamento crítico e estimula o narcisismo.

Na vida real, ninguém é sempre gentil, compreensivo ou disponível. E, por isso, a relação com a IA pode gerar dissonância afetiva: as pessoas começam a se frustrar com o mundo real, que não oferece a mesma “conivência confortável” dos algoritmos.

IA pode até parecer terapêutica — mas jamais será psicanalítica

É importante reconhecer: se o profissional for raso, a IA pode até parecer melhor. Se a escuta humana se limita a conselhos prontos, frases motivacionais e validações automáticas, então talvez um chatbot bem programado cumpra esse papel até com maior eficiência e disponibilidade.

Mas essa comparação não se aplica a um bom psicoterapeuta — e muito menos a um psicanalista.

A psicanálise não trabalha com receitas de bolo, nem com conselhos ou frases motivacionais. Ela não busca acalmar o sujeito a qualquer custo, mas provocar deslocamentos, sustentar o mal-estar, permitir o encontro com o que está fora do controle consciente.

Enquanto a IA responde com base em padrões e previsões, o psicanalista escuta o que escapa do discurso, o que se diz nas entrelinhas, nos lapsos, nos silêncios. A psicanálise parte do princípio de que há um saber no sujeito que ele mesmo desconhece — e nenhum algoritmo é capaz de acessar isso.

O que a IA faz pode ser útil em contextos específicos, mas está muito mais próximo de um serviço de coaching automatizado do que de uma clínica comprometida com a singularidade, o desejo e o tempo do sujeito.

A IA pode substituir um coach, talvez até um terapeuta genérico, mas nunca um psicanalista porque o inconsciente não é previsível, nem mensurável. Ele não se deixa traduzir por estatísticas ou comandos de linguagem.

E é justamente nesse território incerto — e profundamente humano — que se dá o trabalho psicanalítico.

O futuro da IA parece mais humano — mas não é

A lista da HBR mostra que os usos da IA migraram de tarefas objetivas para o bem-estar pessoal: propósito de vida, hábitos saudáveis, organização emocional.

É inegável: a IA parece mais humana. Mas essa aparência é só isso — uma simulação. Ela não sofre, não ama, não se importa.

Enquanto a tecnologia avança e se infiltra até nas áreas mais íntimas da existência, como a dor emocional, é urgente discutirmos os limites. Porque ao entregarmos nossas fragilidades a uma máquina que não nos contraria, corremos o risco de perder o que há de mais essencial na experiência humana: o outro.

A IA escuta, mas não cuida

Se quisermos apenas transferir nossa dor para a conivência confortável das máquinas, talvez estejamos mesmo diante do fim de uma era para a psicoterapia tradicional. Mas também estaremos abrindo mão do desconforto necessário que nos transforma, nos confronta e nos ensina.

A IA pode colaborar — e muito. Mas não pode, nem deve, substituir relações humanas baseadas em afeto, ética e presença real.

E você? Já usou IA para desabafar? Confiaria sua saúde mental a uma máquina?

Fonte:

Harvard Business Review — How People Are Really Using Gen AI in 2025

Talvez te interesse ler também:

Relações Parassociais e Saúde Mental: Conexões Unilaterais na Era Digital

Bebês Reborn e saúde mental: o que está por trás dessa moda?

Não Confunda TDAH com Analfabetismo Funcional: Diagnóstico não é Desculpa




Daia Florios

Cursou Ecologia na UNESP, formou-se em Direito pela UNIMEP. Estudante de Psicanálise. Fundadora e redatora-chefe de greenMe.


ASSINE NOSSA NEWSLETTER

Compartilhe suas ideias! Deixe um comentário...