(Tempo de leitura: 5 minutos)
Muitas pessoas têm recorrido à inteligência artificial como uma forma de suporte emocional, e no TikTok, não faltam relatos de jovens compartilhando como a IA tem ajudado em momentos difíceis. O uso do ChatGPT e de outras ferramentas como “terapeutas virtuais” tem se popularizado como uma alternativa acessível e imediata para desabafos e reflexões.
Um estudo conduzido pela Talk Inc revelou uma tendência em ascensão no Brasil: 10% da população utiliza chats de inteligência artificial para desabafar, pedir conselhos ou apenas conversar.
O estudo, que entrevistou 1.000 pessoas maiores de 18 anos de diferentes regiões e classes sociais, revela que o uso dessas ferramentas não se limita a um grupo específico, mas abrange diversas faixas da população.
No entanto, essa prática pode ser prejudicial. Diferente de um profissional capacitado, a IA não tem capacidade de interpretar emoções de forma genuína, oferecer acolhimento adequado ou auxiliar no desenvolvimento de estratégias reais para lidar com problemas emocionais.
Banalização da terapia e os riscos da IA como substituta profissional

Ao Eufêmea, a psicóloga clínica e supervisora pedagógica Irene Cavalcante alerta para um dos principais problemas dessa tendência: a forma como influenciadores digitais promovem o uso da inteligência artificial como substituta da terapia.
“É de uma irresponsabilidade muito grande fazer as pessoas acreditarem que um processo terapêutico se resume a responder perguntas. Terapia não é sobre um profissional dar respostas prontas, mas um processo de cura interna no qual o sujeito é sempre o protagonista”, explica a especialista.
Segundo Irene, a popularização da IA para suporte emocional pode banalizar a terapia, fazendo com que as pessoas acreditem que reflexões automatizadas substituem o acompanhamento psicológico real.
Outro ponto levantado pela psicóloga é a falta de educação psicológica de muitas pessoas, especialmente entre gerações que cresceram sem acesso a discussões sobre maturidade emocional e desenvolvimento pessoal.
Segundo Irene Cavalcante, essa lacuna faz com que muitas pessoas busquem respostas rápidas e padronizadas para questões complexas, o que representa uma das grandes limitações da inteligência artificial. “A IA pode fornecer reflexões superficiais, mas não conduz um processo terapêutico genuíno. Terapia exige aprofundamento, escuta ativa e um olhar individualizado, algo que um chatbot simplesmente não pode oferecer”, ressalta a especialista.
A falta de individualização e empatia no uso da IA como “terapeuta”
Para a psicóloga Irene Cavalcante, um dos principais problemas do uso da inteligência artificial no lugar da terapia é a falta de individualização do processo.
“O ChatGPT não individualiza o processo. Ele sempre trará respostas prontas e padronizadas, transformando a IA no centro da terapia, quando, na verdade, o centro da terapia deve ser o paciente”, destaca.
Além disso, Irene ressalta que a terapia envolve criatividade, empatia e acolhimento – elementos que um chatbot simplesmente não pode oferecer. “Dentro do setting terapêutico, o psicólogo trabalha com a criatividade, individualidade, personalidade e temperamento do paciente. O ChatGPT é limitado, pois suas respostas são pré-definidas. Além disso, ele não estabelece conexão emocional, tornando o processo frio e mecânico”, acrescenta.
Impactos sociais e emocionais da IA na terapia
Para a psicóloga Irene Cavalcante, o uso da inteligência artificial como ferramenta terapêutica reflete uma crise social maior. “Estamos cada vez menos educados a socializar e criar vínculos reais. Muitas pessoas preferem a frieza de uma tela a olhar nos olhos do outro”, alerta.
Ela ressalta que recorrer à IA para desabafos pode gerar uma falsa sensação de bem-estar, sem oferecer suporte adequado para questões emocionais profundas.
“Se há necessidade de desabafo, significa que a pessoa não está bem. A IA pode proporcionar um alívio momentâneo, mas não substitui estratégias reais para lidar com as emoções”, enfatiza.
Além disso, Irene destaca que a IA pode funcionar como um mecanismo de fuga, afastando as pessoas da realidade e reforçando pensamentos preconceituosos. “O autoconhecimento exige senso crítico. Se alguém aceita tudo o que a IA responde como verdade, corre o risco de acreditar que ela tem todas as respostas, o que pode ser perigoso”, pontua.
Outro risco é a perda do sigilo profissional, essencial na terapia. “Sem um espaço seguro para se expressar, a saúde mental pode ser banalizada e reduzida a um simples jogo de perguntas e respostas”, explica.
Dependência por respostas prontas

A psicóloga clínica Laís Tenório Lins alerta para um fenômeno preocupante: a crescente dependência de respostas prontas fornecidas pela inteligência artificial em situações que exigem reflexão e autonomia.
“Me preocupa o aumento do uso do ChatGPT dessa forma, pois isso pode fazer com que as pessoas dependam cada vez mais de respostas imediatas, sem desenvolver a capacidade de pensar criticamente. O estímulo cognitivo, que desafia o cérebro e estimula o pensamento, precisa ser direcionado para auxiliar na autonomia do indivíduo”, explica.
Além disso, Laís questiona a confiabilidade dos dados usados para treinar a IA. Diferente de pesquisas científicas, que consideram variáveis como cultura, nacionalidade e contexto familiar, não há clareza sobre a base de informações utilizada pelo ChatGPT, o que pode comprometer a qualidade das respostas fornecidas.
Filtrar informações é essencial
Apesar das preocupações, a psicóloga reconhece que a IA pode facilitar o acesso à informação e até incentivar algumas pessoas a buscar ajuda profissional. No entanto, ela alerta para o risco de potencialização de sintomas emocionais, caso o usuário não saiba como lidar com as respostas recebidas.
“É fundamental filtrar as informações para evitar interpretações equivocadas e até mesmo crises de ansiedade geradas pela incerteza sobre como agir diante de determinado problema”, destaca Laís.
Por fim, a especialista reforça que a psicologia precisa acompanhar as mudanças sociais e tecnológicas, mas sem perder sua base científica. “Atualizar-se cientificamente sempre será essencial para manter a psicologia como uma ciência regulamentada, seguindo as diretrizes do Conselho Federal de Psicologia”, conclui.