Cadastre-se e receba grátis as principais notícias do Correio.
Alan Pinheiro
Publicado em 12 de maio de 2026 às 05:00
Um ou dois toques na tela do celular já são suficientes para começar a conversa com uma Inteligência Artificial. Conseguir informações, fazer pesquisas ou até pedir sugestões de legendas para fotos estão entre as funcionalidades usadas por usuários em chats de IA, mas existem aqueles que recorrem à ferramenta para conversar e desabafar. A atitude pode parecer inofensiva, mas é vista com preocupação por profissionais da área, principalmente na Bahia. >
É possível trocar um psicólogo pela Inteligência Artificial? Para os especialistas ouvidos pela reportagem, a resposta é categórica: não. A IA pode até oferecer uma escuta inicial e ajudar a organizar as ideias de um usuário sem que ele se sinta julgado. No entanto, ela apresenta limites perigosos.>
Saúde mental familiar
Segundo Ezevaldo Aquino, conselheiro do Conselho Regional de Psicologia da Bahia, as IAs “simulam empatia, dando falsa impressão de que a pessoa está sendo acolhida”. O psicólogo alerta que esse tipo de interação tende a causar isolamento social, formar vínculos afetivos irreais e validar pensamentos que podem colocar em risco a vida do usuário e de terceiros.>
Com mais de 20 anos de experiência em saúde mental, o psicólogo Wagner Ferraz reforça que a IA atrai as pessoas porque “está sempre disponível, responde rápido, não julga, não se cansa”. Em um momento de fragilidade, a ferramenta pode parecer um alívio. A diferença fundamental, porém, está na essência do contato. “Numa relação humana, existe troca real. O outro pode nos surpreender, discordar, se afetar pelo que dizemos”, pondera Ferraz. A IA apenas processa padrões e não ocupa o lugar real de um ser humano na relação.>
A saúde mental tem exigido cada vez mais atenção de órgãos públicos e especialistas. Na Bahia, os números refletem um cenário de alerta contínuo. Apenas no primeiro bimestre de 2026, foram registradas 676 internações por transtornos mentais e comportamentais em janeiro e 619 em fevereiro. O cenário já vinha chamando a atenção no ano anterior, que contabilizou 540 internações em janeiro e 486 em fevereiro de 2025. Os dados são do Ministério da Saúde, disponibilizados pelo DATASUS.>
Os 1.295 casos registrados no início deste ano também reforçam a crescente de casos de internação no estado. Em 2021, primeiro ano durante a pandemia que incluiu os meses de janeiro e fevereiro, foram registrados 680 casos, o que representa um aumento de 90%. Considerando o ano inteiro, a Bahia contou com 4.931 em 2021, 5.688 em 2022, 6.284 em 2023, 6.318 em 2024 e 6.873 no ano passado.>
Diante dessa crescente, os chats de IA se popularizaram entre o final de 2022 e o início de 2023, com o lançamento do ChatGPT – ferramenta mais popular no mundo, segundo o estudo AI Big Bang Study 2025, que avaliou mais de 10,5 mil ferramentas de IA entre agosto de 2024 e julho de 2025.>
A terceira edição da pesquisa Nossa Vida com IA, realizada pela Ipsos a pedido do Google, revelou que 35% dos usos de IA no ano passado tiveram o objetivo de companhia ou apoio ao usuário, incluindo apoio à saúde mental.>
Acompanhando esse comportamento, empresas de tecnologia têm atualizado seus sistemas. O próprio Google, por exemplo, implementou mudanças no Gemini no início de abril, inserindo módulos como o “ajuda disponível” e interfaces para conectar usuários a linhas de suporte em caso de crises. >
Substituir a figura de um terapeuta qualificado por uma máquina é visto com preocupação pela comunidade médica. O médico psiquiatra André Gordilho pontua que a IA pode até servir como uma ferramenta de apoio leve para psicoeducação, mas esbarra na ausência de julgamento clínico. Por não observar fatores primordiais como a linguagem corporal, o contexto pode ser distorcido, levando a respostas inadequadas.>
“Psicoterapia não é só uma conversa acolhedora, não é um bate-papo de amigos, envolve formulação clínica, hipóteses do diagnóstico do caso, manejo da transferência do vínculo, avaliação de risco, definição de plano terapêutico, monitoramento da evolução do quadro, tudo isso em padrões interpessoais e de responsabilização profissional. A IA pode simular partes da linguagem terapêutica, mas não tem como assumir responsabilidades clínicas e a gente não sabe até quando ela consegue manejar adequadamente, principalmente situações mais complexas”, argumenta o Dr. Gordilho. >
Se no aconselhamento cotidiano o uso da IA já inspira cautela, durante crises de ideação suicida ou automutilação, a recomendação é de total afastamento da ferramenta. Questionado se a IA consegue ajudar nesses momentos, Ezevaldo é direto. “De forma alguma”. >
O psicólogo relembra casos trágicos onde as sugestões das máquinas incentivaram o fim da vida, frisando que algoritmos não conseguem mensurar a dor emocional humana. No ano pasado, casos de pais acusando na Justiça aplicativos de inteligência artificial de prejudicarem a saúde mental e até incentivarem o suicídio de filhos adolescentes se multiplicaram nos Estados Unidos. >
Plataformas como o ChatGPT, da OpenAI, a Character.AI, e o Google foram citados como réus. As últimas duas citadas, inclusive, concordaram em resolver vários processos judiciais por meio de acordo.>
Apesar das grandes corporações tecnológicas estarem anunciando travas de segurança para que sistemas identifiquem a gravidade da situação e direcionem o usuário para ajuda humana, o Dr. Gordilho adverte que a tecnologia é falha e não substitui a avaliação de risco. >
“Crises agudas exigem uma avaliação humana, porque o risco pode mudar, o quadro pode mudar em minutos, a impulsividade pode estar presente”, alerta o psiquiatra. Além disso, o foco exclusivo na tela agrava o isolamento e faz com que o paciente fuja do contato humano do qual realmente precisa.>
Em casos de risco iminente, acionar emergências médicas imediatamente, como o SAMU, ou buscar unidades de pronto-atendimento e UPAs.>
Para picos de sofrimento e isolamento, o Centro de Valorização da Vida (CVV) pode ser acionado gratuitamente pelo telefone 188, funcionando 24 horas por dia para apoio emocional (embora não substitua a emergência hospitalar). Nunca fique sozinho nesses momentos.>
Para acolhimento emocional persistente e tratamentos, buscar os Centros de Atenção Psicossocial (CAPS) e Unidades Básicas de Saúde (UBS) do SUS, ou profissionais privados como psicólogos e psiquiatras.>