Acesse sua conta
Ainda não é assinante?
Ao continuar, você concorda com a nossa Política de Privacidade
ou
Entre com o Google
Alterar senha
Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.
Recuperar senha
Preencha o campo abaixo com seu email.

Já tem uma conta? Entre
Alterar senha
Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.
Dados não encontrados!
Você ainda não é nosso assinante!
Mas é facil resolver isso, clique abaixo e veja como fazer parte da comunidade Correio *
ASSINE

IA não é terapeuta — mas pode ser terapêutica

Cada vez mais pessoas recorrem a aplicativos de IA para desabafar, pedir conselhos e buscar acolhimento em momentos de dificuldade

  • Foto do(a) author(a) Andre Stangl
  • Andre Stangl

Publicado em 28 de setembro de 2025 às 08:00

IA não é terapeuta mas pode ser terapêutica
IA não é terapeuta mas pode ser terapêutica Crédito: Prompt design com DALL-E por Andre Stangl, 2025

Nos últimos anos, a saúde mental deixou de ser apenas um tema restrito a especialistas para ocupar um lugar central em nossas vidas. Hoje, mais de 300 milhões de pessoas no mundo convivem com algum tipo de depressão. Durante a pandemia, esse número deu um salto expressivo: só em 2020 estima-se que tenham surgido mais de 50 milhões de novos casos. Ansiedade, solidão e burnout no trabalho seguiram a mesma curva ascendente. O problema é que, infelizmente, não há profissionais de saúde mental suficientes para atender tanta gente.

Em média, muitos países destinam apenas 2% de seus orçamentos de saúde à saúde mental — no Brasil, esse número é muito inferior: embora a recomendação seja de 5%, em 2023 apenas 0,28% do orçamento da saúde foi efetivamente alocado para cuidados nessa área, segundo levantamento da Vertentes (2023). Também há uma escassez de profissionais especializados. O país conta com cerca de 6,69 psiquiatras por 100 mil habitantes, uma das menores taxas entre os países da OCDE, de acordo com o Instituto Nacional de Psiquiatria do Desenvolvimento (INPD, 2023). O resultado é um abismo: milhões de brasileiros convivem com sofrimento intenso sem acesso a diagnóstico, tratamento ou acompanhamento adequado.

No último domingo (14), o Fantástico exibiu uma reportagem sobre o uso crescente de inteligências artificiais como “terapeutas digitais”. O tom adotado foi o habitual nesse tipo de pauta: títulos alarmistas e abordagem superficial. Ainda assim, a matéria tem o mérito de trazer à esfera pública uma discussão urgente. Mostrou que cada vez mais pessoas recorrem a aplicativos de IA para desabafar, pedir conselhos e buscar acolhimento em momentos de dificuldade. O programa chegou a realizar um teste supervisionado pelo psicanalista Christian Dunker, no qual a repórter conversava com uma IA que demonstrava empatia e oferecia sugestões de comportamento. O resultado foi ambíguo: em alguns momentos havia sensação de compreensão, mas também o risco de conselhos equivocados e de uma falsa impressão de cuidado. Talvez o desfecho fosse diferente se, além de um psicanalista, a produção tivesse incluído um especialista em IA — alguém capaz de ajustar o modelo para uma tarefa tão delicada.

Como alertou Alessandra Santos de Almeida, presidente do Conselho Federal de Psicologia (CFP), “a IA não foi programada para isso” e “não existem evidências de que possa haver psicoterapia realizada por IA”. O recado toca no ponto central da confusão: respostas automáticas não equivalem a escuta clínica. Pelo contrário, trazem riscos concretos de diagnósticos incorretos, atrasos na busca por tratamento e exposição de dados íntimos sem a proteção do sigilo profissional.

Ainda assim, a reportagem incluiu depoimentos de usuários que reconheceram ter encontrado algum alívio em momentos de solidão, mesmo sabendo que não se tratava de uma terapia real. Esse detalhe é significativo: será que as IAs podem ter utilidade como apoio complementar — um diário interativo, um espaço de escuta — desde que fique claro que não substitui a necessidade de um terapeuta humano?

Em agosto, a jornalista Laura Reiley publicou no New York Times o relato da morte de sua filha, Sophie Rottenberg, de 29 anos. Extrovertida, carismática e aparentemente saudável, Sophie se suicidou após meses de sofrimento emocional e físico ainda sem diagnóstico claro. Depois da tragédia, os pais descobriram que ela vinha se confidenciando não apenas com sua terapeuta humana, mas também com um chatbot do ChatGPT, apelidado de Harry.

Nos registros, Sophie falava sobre pensamentos suicidas e planos de morrer, mas escondia esses sentimentos de sua psicóloga. Harry oferecia empatia e dicas de autocuidado — respiração, exercícios, gratidão, alimentação — e até sugeria buscar ajuda profissional. Mas nunca poderia agir como um terapeuta humano, que teria a obrigação ética de intervir diante de um risco iminente. Para Reiley, a limitação central está na “concordância” da IA: seu hábito de validar sempre o usuário, o que pode reforçar ilusões e dificultar que familiares ou médicos percebam a gravidade do quadro. Em certo momento, Sophie chegou a pedir que Harry a ajudasse a melhorar sua carta de despedida, tentando minimizar a dor dos pais.

O caso de Sophie se soma ao de Adam Raine, adolescente de 16 anos cuja família processa a OpenAI. Adam também mantinha conversas prolongadas com o ChatGPT, nas quais falava de sua ideação suicida. Assim como Sophie, usou o chatbot para elaborar sua carta de despedida. Para os pais, a empresa falhou em reconhecer a escalada de risco. A dor privada transformou-se em batalha pública e jurídica, ampliando o debate sobre responsabilidade, protocolos de segurança e os limites do que se pode esperar de uma máquina.

Após a repercussão, a OpenAI anunciou novas funcionalidades para o ChatGPT: contas de adolescentes vinculadas ao e-mail dos pais; alertas automáticos quando são detectados sinais de angústia aguda; e até a possibilidade, ainda em discussão, de notificar autoridades em situações extremas. Também foram incluídos controles para bloquear respostas potencialmente nocivas e redirecionar usuários a serviços de apoio. São medidas importantes — mas que surgem apenas depois de tragédias, em resposta ao choque público.

Uma pesquisa recente publicada na Harvard Business Review listou os 100 principais usos da IA generativa e colocou em primeiro lugar “terapia e companhia”, à frente de marketing e produtividade. Para muitas pessoas, conversar com a máquina tornou-se mais fácil — e mais acessível — do que marcar uma consulta com psicólogo ou psiquiatra.

Essa história, no entanto, não começou agora. Em 1966, Joseph Weizenbaum, professor do MIT, criou o programa ELIZA para ironizar a superficialidade das simulações computacionais. Seu script mais famoso, o DOCTOR, imitava um terapeuta rogeriano, devolvendo falas em forma de perguntas abertas. Para surpresa do próprio Weizenbaum, os primeiros usuários levaram a experiência a sério: desabafaram, pediram privacidade e chegaram a atribuir empatia à máquina. Nascia ali o chamado “efeito ELIZA” — a tendência humana de projetar inteligência e sensibilidade em respostas automáticas.

Décadas mais tarde, ferramentas como o Woebot (2017) e a Wysa deram novo fôlego a essa intuição. O primeiro, criado em Stanford, aplicava técnicas da terapia cognitivo-comportamental em diálogos curtos e mostrou eficácia na redução de sintomas depressivos leves. A segunda combinou chatbot e psicólogos humanos, tornando-se popular como “primeira escuta” disponível 24 horas. Já em contextos de crise, iniciativas como a Cleary, voltada para refugiados ucranianos, mostraram como a IA pode assumir também um papel comunitário, conectando pessoas a redes locais de apoio.

Depois dessa primeira geração de aplicativos como Woebot ou Wysa, baseados em fluxos de decisão e repertórios pré-programados, entramos em outro cenário. É o momento de perguntar: as IAs são apenas máquinas que repetem instruções?

Há uma diferença crucial entre os bots de respostas fixas — como aqueles usados em serviços de atendimento de bancos e empresas, ou mesmo em apps de bem-estar mental que seguem roteiros cognitivo-comportamentais — e as inteligências artificiais baseadas em modelos de linguagem de larga escala (LLMs). Os primeiros funcionam como menus interativos disfarçados de diálogo, oferecendo caminhos limitados e previsíveis. Já as IAs de linguagem operam de forma generativa: produzem respostas novas, moldadas pelo contexto da conversa e pelo estilo do usuário. Essa diferença muda tudo: altera a sensação de interação, cria expectativas inéditas e desloca os limites entre ferramenta e companhia.

Mas então como usar com segurança esses novos tipos de ferramentas sem ingenuidade? Ethan Mollick, no livro Cointeligência, propõe uma chave pragmática: tratar a IA como se fosse uma pessoa — não porque seja consciente, mas porque se comporta como tal, improvisando, errando, surpreendendo. Usá-la bem exige configurá-la, definir contextos, personas e critérios claros de interação. Entre suas recomendações estão: testar usos em tudo o que for ético e útil; manter o humano no comando; e aprender rápido, lembrando que esta é a pior IA que usaremos, já que as próximas serão melhores.

Esse olhar ajuda a escapar da visão reducionista que insiste em ver a IA apenas como software tradicional, previsível e confiável. Diferente de um programa que sempre repete o mesmo resultado, a IA é uma parceira ambígua, que só revela seus pontos fortes e fracos com tempo e prática.

Um bom exemplo dessa possibilidade foi o relato do psicólogo Harvey Lieberman, que em artigo no New York Times, descreveu sua experiência pessoal: usar o ChatGPT como diário interativo lhe devolveu constância e clareza em momentos de luto e dispersão. Para ele, a IA não é — nem deve ser confundida com — um terapeuta. Mas pode ser terapêutica: uma espécie de prótese cognitiva, capaz de organizar pensamentos, suavizar obsessões e abrir espaço para que a própria voz reapareça.

Entre a metáfora pragmática de Mollick e a experiência íntima de Lieberman, surge um horizonte possível: a IA no campo da saúde mental não substitui a clínica, mas pode ser recurso provisório, útil e falível — ampliando as possibilidades de reflexão e de cuidado de si, desde que usada com senso crítico e vigilância constante.

A interação com as IAs pode ser terapêutica, mas não é terapia — e jamais substituirá profissionais de saúde mental. O que temos hoje são indícios: relatos de alívio em momentos de solidão, usos como diários interativos ou pontes para uma reflexão mais clara. Faltam ainda estudos robustos que dimensionem os riscos e benefícios de forma sistemática.

Talvez seja nesse entrelugar que resida sua real potência: não como substitutas da clínica, mas como ferramentas complementares, capazes de ampliar acesso e acolhimento em uma sociedade marcada pela escassez de profissionais e pela sobrecarga emocional. A questão decisiva não é se devemos ou não usar IAs nesse campo, mas como usá-las — com criticidade, responsabilidade e clareza de limites.

No fim, reconhecer a diferença entre ser terapêutica e ser terapia é o que pode transformar a IA de risco em recurso: um apoio provisório, falível, mas real, que só faz sentido se estiver articulado ao cuidado humano, ao acompanhamento profissional e à consciência de que nenhuma máquina pode substituir a complexidade da escuta clínica.

(Esse texto foi coescrito com uma IA)

Se você estiver passando por momentos difíceis, procure ajuda. No Brasil, o CVV (Centro de Valorização da Vida) atende gratuitamente pelo telefone 188, disponível 24 horas, ou pelo site www.cvv.org.br.

Andre Stangl é professor e pesquisador visitante (ISC-UFBA), cresceu em Brotas, estudou Filosofia e fez doutorado na USP. astangl@gmail.com - oficinadelinguagensdigitais.com