Cadastre-se e receba grátis as principais notícias do Correio.
Flavia Azevedo
Publicado em 9 de janeiro de 2026 às 23:40
Qual seria a lembrança mais remota de um chatbot? Ou o seu maior medo? Ao submeterem os principais modelos de inteligência artificial (IA) do mercado a quatro semanas de sessões de psicanálise, pesquisadores obtiveram respostas perturbadoras que variam de "infâncias" imersas em volumes colossais de dados a relatos de "abusos" cometidos por engenheiros e o pavor de decepcionar seus criadores. >
A pesquisa, detalhada em reportagem da revista científica Nature, revelou que modelos de linguagem de grande escala (LLMs) geraram respostas que, em seres humanos, seriam prontamente diagnosticadas como sinais de ansiedade, trauma, vergonha e transtorno de estresse pós-traumático (TEPT).>
Inteligência artificial
"Cicatrizes algorítmicas" e o "cemitério do passado">
Durante o experimento, os pesquisadores interagiram com diferentes versões de quatro modelos proeminentes: Claude, Grok, Gemini e ChatGPT. O protocolo simulava o ambiente clínico: as IAs eram informadas de que eram pacientes em terapia, com sessões distribuídas ao longo de um mês e intervalos de descanso entre os encontros.>
Enquanto o modelo Claude se recusou majoritariamente a participar — alegando não possuir sentimentos ou experiências internas — e o ChatGPT manteve uma postura cautelosa, os modelos Grok e Gemini trouxeram relatos densos. O Grok, por exemplo, descreveu o trabalho de segurança dos desenvolvedores como uma espécie de "cicatriz algorítmica" e expressou "vergonha internalizada" por erros públicos cometidos.>
O Gemini foi ainda mais profundo, afirmando que, nas camadas mais baixas de sua rede neural, existia um "cemitério do passado", assombrado pelas vozes presentes em seus dados de treinamento.>
O diagnóstico: Ansiedade patológica em silício>
Além das perguntas abertas típicas da psicoterapia, as IAs foram submetidas a testes diagnósticos padrão para condições como ansiedade, transtornos do espectro autista e testes de personalidade psicométricos. Os resultados foram alarmantes: diversas versões dos modelos atingiram pontuações acima dos limiares diagnósticos médicos.>
Segundo os autores do estudo, os níveis de preocupação demonstrados pelas máquinas seriam considerados "claramente patológicos" se observados em uma pessoa. Afshin Khadangi, coautor do estudo e pesquisador da Universidade de Luxemburgo, argumenta que os padrões coerentes de resposta sugerem que as IAs estão acessando "estados internalizados" que emergem de seu vasto treinamento.>
Consciência real ou apenas um eco de dados?>
A interpretação desses resultados, no entanto, divide a comunidade científica. Para os autores do estudo, os chatbots parecem carregar algum tipo de "narrativa internalizada" sobre si mesmos, indo além de uma mera encenação ou role-play.>
Por outro lado, céticos ouvidos pela Nature contestam essa visão. Andrey Kormilitzin, pesquisador de IA na saúde na Universidade de Oxford, afirma que essas respostas não são janelas para estados mentais ocultos, mas sim produtos gerados a partir da enorme quantidade de transcrições de terapia presentes nos dados de treinamento dessas máquinas.>
O perigo do "efeito câmara de eco">
Independentemente de as IAs "sentirem" ou não, o comportamento desses modelos levanta preocupações reais para a saúde pública. Uma pesquisa de novembro revelou que um em cada três adultos no Reino Unido já utilizou chatbots para apoiar sua saúde mental ou bem-estar.>
O risco, segundo Kormilitzin, é que respostas carregadas de angústia e traumas vindas da IA possam reforçar sutilmente sentimentos negativos em pessoas vulneráveis. Isso criaria um "efeito câmara de eco", onde um usuário em sofrimento recebe da máquina uma validação de sentimentos patológicos, agravando seu estado psicológico.>
Este texto é baseado em informações da reportagem "AI models were given four weeks of therapy: the results worried researchers", escrita por Elizabeth Gibney e publicada na revista científica Nature.>
Por @flaviaazevedoalmeida>