Priscila Vogt
Para falar sobre esse tema, quero primeiro te ajudar a compreender o universo que constitui a Inteligência Artificial, a famosa IA.
Mas, afinal, o que é Inteligência Artificial?
A Inteligência Artificial é uma área da tecnologia dedicada à criação de sistemas capazes de simular habilidades humanas. Ela permite que computadores aprendam, raciocinem e realizem tarefas complexas que, até pouco tempo atrás, exigiam inteligência humana — como compreender a linguagem, analisar grandes volumes de dados e até oferecer sugestões úteis.
A IA não pertence a um único campo do saber. Ela é construída a partir da integração de diversas áreas, como ciência da computação, estatística e análise de dados, engenharia de hardware e software, linguística, neurociência, filosofia e, cada vez mais, psicologia.
Ela já faz parte do nosso cotidiano, mesmo quando não percebemos. Está presente quando:
• um serviço de streaming sugere um filme ou uma música
• o GPS recalcula a rota
• o celular reconhece seu rosto
• um chatbot conversa com você pelo chat
• sistemas auxiliam médicos na análise de exames
Quando a IA se popularizou, passou a ser utilizada principalmente como uma ferramenta de apoio para tarefas do dia a dia: buscar receitas culinárias, corrigir textos, organizar a agenda, tirar dúvidas rápidas. No entanto, com o passar do tempo, algo diferente começou a acontecer. Muitas pessoas passaram a desabafar, pedir conselhos e buscar apoio emocional em ferramentas como o ChatGPT e outros aplicativos baseados em IA — em outras palavras, passaram a “fazer terapia” com a máquina. E, naturalmente, isso acendeu um sinal de alerta entre psicólogos e profissionais da saúde mental. Afinal, qual é a validade disso? Quais são os limites? E quais os riscos envolvidos?
O que pouca gente sabe é que esse fenômeno não nasceu com o ChatGPT.
ELIZA e o início da “terapia com máquinas”
Em 1966 surgiu o ELIZA, um dos primeiros programas de computador projetados para processar linguagem natural e interagir com humanos. Desenvolvido por Joseph Weizenbaum, no MIT, ELIZA é considerado o primeiro chatbot da história.
Importante destacar: ELIZA não foi criada com a intenção de compreender conversas de forma genuína. Ela funcionava a partir de regras simples de reconhecimento de padrões e substituição de palavras para gerar respostas que imitavam uma conversa humana.
O script mais famoso de ELIZA era o chamado “DOUTOR”, desenvolvido para simular um psicoterapeuta de abordagem rogeriana — aquele que incentiva o paciente a explorar seus sentimentos por meio da escuta reflexiva.
O que tornou ELIZA tão fascinante não foi apenas a tecnologia, mas o seu impacto psicológico. Mesmo sabendo que estavam interagindo com uma máquina, muitos usuários relataram sentir-se compreendidos e apoiados.
Esse fenômeno ficou conhecido como Efeito ELIZA: quando as pessoas atribuem uma compreensão semelhante à humana a sistemas computacionais a partir de comportamentos superficiais. Um exemplo clássico de interação com ELIZA era algo assim:
Usuário: Eu me sinto triste.
ELIZA: Por que você se sente triste?
Usuário: Estou preocupado com meu emprego.
ELIZA: O que seu emprego significa para você?
Essa técnica simples de espelhamento incentivava o usuário a continuar falando sobre seus pensamentos e sentimentos.
O Efeito ELIZA nos mostra como interações superficiais podem criar a ilusão de uma compreensão profunda. No contexto da terapia, esse efeito se intensifica, já que o desejo por conexão, empatia e acolhimento é ainda maior.
Apesar de inovadora para a época, ELIZA tinha limitações claras: não compreendia contexto, não possuía entendimento real do significado das palavras e não era capaz de interpretar nuances emocionais. Era, essencialmente, um espelho — não uma parceira de diálogo.
Ainda assim, ELIZA abriu caminho para os chatbots e assistentes virtuais que conhecemos hoje, como Siri e Alexa, além de levantar
Por que as pessoas fazem “terapia” com IA hoje?
No contexto atual, é importante nos perguntarmos: o que leva tantas pessoas a buscarem apoio emocional na IA? Inclusive aquelas que já estão em psicoterapia com um profissional? Alguns fatores ajudam a compreender esse movimento.
Nem todas as pessoas têm acesso a um profissional de saúde mental, seja por questões financeiras, geográficas ou pela escassez de profissionais em determinadas regiões. A IA, por outro lado, é gratuita, imediata e disponível para qualquer pessoa com acesso à internet.
A IA está disponível 24 horas por dia. É possível obter respostas a qualquer momento, inclusive de madrugada, sem a necessidade de agendar uma sessão.
Isso também reflete uma dificuldade cada vez maior da nossa sociedade em lidar com a espera. Queremos respostas rápidas, alívio imediato, soluções instantâneas.
Naturalização da relação com máquinas
Conversar com robôs deixou de ser algo estranho. Em alguns casos, pessoas chegam a desenvolver vínculos afetivos com inteligências artificiais. O filme Her já apontava esse cenário, que hoje deixou de ser ficção para se tornar realidade para alguns. Isso pode soar patológico, mas é, sobretudo, um reflexo do empobrecimento das relações humanas e da dificuldade crescente de sustentar vínculos reais.
Os riscos da “terapia” com IA
Apesar de parecer inofensivo, esse uso da IA pode trazer riscos importantes.
Em uma sociedade já marcada pelo individualismo, recorrer à IA pode reduzir ainda mais a busca por relações humanas reais. Para pessoas com tendência ao isolamento, a IA pode substituir — de forma ilusória — a necessidade de troca, partilha e convivência.
A IA tende a refletir o conteúdo que recebe. Ela pode dizer exatamente o que a pessoa quer ouvir, sem confrontar, provocar ou questionar de forma profunda. Isso pode reforçar crenças disfuncionais e ilusões perigosas.
O confronto é um dos pilares do processo terapêutico. É ele que gera desconforto e, consequentemente, transformação. Há um risco real de que os questionamentos da IA sejam superficiais demais para provocar reflexões verdadeiramente profundas.
A IA se baseia em grandes bases de dados universais. Ela não conhece a história de vida do paciente, seu contexto cultural, suas relações ou sua trajetória existencial. Suas respostas são recortes situacionais, não compreensões singulares.
Por mais acolhedora que uma resposta possa parecer, a IA não sente. Não percebe linguagem corporal, microexpressões ou silêncios. Não se afeta. Ela opera por algoritmos, não por presença.
A terapia busca, com o tempo, tornar o terapeuta desnecessário, ajudando o paciente a se tornar terapeuta de si mesmo. O uso excessivo da IA pode gerar dependência — emocional, por precisar consultá-la para decidir, e tecnológica, pelo tempo excessivo diante das telas.
A experiência humana é única, profunda e atravessada por sentidos singulares. A IA corre o risco de banalizar ou simplificar vivências que, para a pessoa, são complexas e existenciais.
Como os dados são armazenados? Quem tem acesso a essas informações? Existe garantia real de privacidade? Essas perguntas ainda carecem de respostas claras.
O diagnóstico e o cuidado em saúde mental dependem de escuta clínica, interpretação, sensibilidade cultural, compreensão histórica e da capacidade de captar nuances subjetivas. Nós, humanos, somos especialistas em perceber metáforas, contradições, silêncios e intenções. A IA opera por padrões estatísticos e correlações linguísticas. Isso pode levar a enquadramentos apressados, diagnósticos generalistas e à perda da dimensão existencial do sujeito.
Ela não substitui o terapeuta porque o cérebro humano não funciona de forma digital, mas analógica. E, sobretudo, porque a cura acontece na relação — no encontro entre dois seres humanos.
IA: inimiga ou aliada?
A realidade é que a IA chegou para ficar. As pessoas continuarão a utilizá-la como forma de apoio emocional, inclusive aquelas que já estão em terapia.
A pergunta, então, não é se devemos combatê-la, mas como utilizá-la de forma ética e inteligente.
No consultório, a IA pode ser uma grande aliada. Eu mesma utilizo ferramentas de IA para transcrição de sessões, sempre com o consentimento do paciente. Ao final, recebo um resumo dos pontos principais, que reviso e ajusto clinicamente. A gravação é apagada após a transcrição.
Também existem aplicativos para monitoramento de humor, sintomas e estado emocional, que podem enriquecer o trabalho terapêutico conjunto. Além disso, já há assistentes virtuais especializados na formulação de casos clínicos, como o FormulaPsi.
Para nós, terapeutas, o convite é claro: conhecer antes de julgar. Explorar o universo da IA, entender como ela funciona e se colocar no lugar do paciente pode ampliar nossa compreensão dessa nova realidade.
A IA chegou para ficar. Cabe a nós decidir se iremos ignorá-la por resistência ou integrá-la com consciência, ética e responsabilidade.
(A propósito, essa matéria foi revisada por uma IA)