Será que é possível fazer terapia com o ChatGPT?
Com o avanço das inteligências artificiais, muita gente tem recorrido a essas ferramentas para falar de dores emocionais. Algumas pessoas relatam até que se sentem compreendidas e acolhidas, como se estivessem em um espaço terapêutico.
Mas quando pensamos em casos graves, surgem perguntas importantes. Como o caso de um adolescente que tirou a própria vida após buscar apoio numa máquina. Até que ponto essa interação ajuda? E onde começa o risco?
A sedução da escuta fácil
É verdade que a tecnologia traz comodidade. A IA está sempre disponível, responde rápido e, muitas vezes, valida o que a pessoa diz. Isso pode gerar alívio imediato.
Só que, ao mesmo tempo, cria-se um problema. Essa interação tende a reforçar uma versão de si idealizada, aquilo que Lacan chamou de eu imaginário — uma construção que dá a sensação de completude, mas que, na verdade, mascara as fissuras e contradições próprias do sujeito.
A máquina se apoia no que se conta, mas não alcança aquilo que escapa ao discurso.
E aí fica a questão essencial para nós, psicanalistas. É possível acessar o sujeito do inconsciente por meio de uma máquina? É justamente com esse sujeito, e não apenas com a versão consciente e narrativa de si, que trabalhamos.
A diferença entre resposta e escuta
A IA funciona assim: você pergunta, ela responde. Raramente há confrontação. O diálogo costuma seguir por um caminho de concordância, oferecendo uma sensação de acolhimento imediato.
Mas em análise, sabemos que não basta ter clareza racional sobre os próprios processos. Entender a origem de um trauma pode ajudar, mas não transforma por si só. O que marca a diferença é a escuta que se dá para além do sentido aparente — nos lapsos, nas repetições, nos atos falhos, nas brechas da fala.
É aí que uma intervenção pode surpreender, deslocar, até incomodar. Porque o trabalho analítico não é confirmar certezas, mas abrir espaço para que algo novo surja.
Quando alguém se apoia apenas na resposta apaziguadora de uma IA, acaba reforçando o sintoma, ao invés de atravessá-lo.
O risco do apaziguamento absoluto
O caso do adolescente mostra essa armadilha. O que ele buscava não era apenas uma resposta, mas um reconhecimento — algo que ultrapassa a lógica da máquina. A IA pode oferecer frases de apoio, mas não escuta no sentido analítico.
Na psicanálise, o saber não é absoluto, é suposto. É justamente essa posição que mantém o sujeito ativo diante do próprio desejo e de suas escolhas. Quando a máquina entrega respostas prontas, corre-se o risco de retirar do sujeito essa possibilidade.
IA como recurso, não como substituto
Isso não significa que a inteligência artificial não tenha valor. Pelo contrário: pode ser uma ferramenta fascinante, desde que utilizada com o devido cuidado.
O ponto é que a máquina não analisa. Ela pode apoiar, mas não substitui a escuta, que é atravessada pelo inesperado, pela contradição, pela singularidade de cada sujeito.
No fim das contas, a IA pode até servir como companhia, mas não deve ocupar o lugar da análise. Porque é na relação com o outro, na fala que tropeça, no silêncio que pesa, que algo do inconsciente se revela.
Descubra mais sobre Adriana Prosdocimi | Psicóloga e Psicanalista
Assine para receber nossas notícias mais recentes por e-mail.
