Acesse sua conta
Ainda não é assinante?
Ao continuar, você concorda com a nossa Política de Privacidade
ou
Entre com o Google
Alterar senha
Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.
Recuperar senha
Preencha o campo abaixo com seu email.

Já tem uma conta? Entre
Alterar senha
Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.
Dados não encontrados!
Você ainda não é nosso assinante!
Mas é facil resolver isso, clique abaixo e veja como fazer parte da comunidade Correio *
ASSINE

Doença falsa engana ChatGPT, Gemini e até revista científica

Como a "bixonimania" expôs não só a fragilidade da IA, mas também a preguiça perigosa de quem já não checa o que publica

  • Foto do(a) author(a) Flavia Azevedo
  • Flavia Azevedo

Publicado em 7 de abril de 2026 às 22:23

ChatGPT
ChatGPT Crédito: Shutterstock

Imagine sentir uma coceira persistente nos olhos e, ao buscar ajuda com um assistente de Inteligência Artificial, receber o diagnóstico de uma condição "intrigante e rara" chamada “bixonimania”. O nome soa oficial, os sintomas parecem bater, mas há um detalhe: essa doença simplesmente não existe. O que começou como um teste para medir a credibilidade dos algoritmos acabou revelando um buraco profundo na forma como a tecnologia e a própria ciência processam informações hoje em dia. Pois a “bixonimania” é uma obra de ficção que conseguiu atravessar as fronteiras do código binário para se infiltrar em artigos acadêmicos revisados por pares.

A Inteligência Artificial pode ser uma aliada no trabalho (Imagem: SuPatMaN | Shutterstock) por Imagem: SuPatMaN | Shutterstock

O nascimento de uma farsa

A mente por trás da "epidemia" fictícia é Almira Osmanovic Thunström, pesquisadora da Universidade de Gotemburgo, na Suécia. Em março de 2024, ela decidiu testar se os grandes modelos de linguagem, como o ChatGPT e o Gemini, seriam capazes de engolir uma mentira deslavada se ela estivesse vestida com roupas acadêmicas. Para isso, criou o pesquisador fantasma Lazljiv Izgubljenovic - cujo rosto foi gerado por IA - e publicou estudos falsos descrevendo a “bixonimania” como uma irritação nas pálpebras causada pela luz azul de telas.

O tom da farsa beirava o surrealismo para quem se desse ao trabalho de ler os créditos. Thunström inseriu pistas óbvias de que tudo era uma brincadeira: o autor supostamente trabalhava na inexistente Universidade Asteria Horizon, na cidade fictícia de Nova City. Mais engraçado ainda, os agradecimentos do artigo citavam a "Academia da Frota Estelar" por emprestar laboratórios a bordo da USS Enterprise e creditavam o financiamento à "Fundação Professor Sideshow Bob", em homenagem ao vilão de Os Simpsons, por sua "astúcia avançada". Mesmo com essas bandeiras vermelhas flamejantes, o experimento funcionou bem demais.

Os robôs começam a receitar

Apenas algumas semanas após a publicação dos textos falsos em plataformas de pré-impressão, a “bixonimania” já era tratada como realidade pelos principais chatbots do mercado. Em 13 de abril de 2024, o Copilot da Microsoft descrevia a condição como algo real, enquanto o Gemini do Google recomendava seriamente que os usuários procurassem um oftalmologista para tratar a doença inventada. Até mesmo o motor de busca Perplexity chegou a inventar estatísticas, afirmando que uma em cada 90 mil pessoas era afetada pela condição.

Especialistas ouvidos pela reportagem da Nature explicam que o problema está na forma como a IA interpreta textos com aparência profissional. Quando uma mentira é formatada como um artigo clínico ou uma nota de alta hospitalar, as taxas de "alucinação" dos modelos aumentam drasticamente. Os algoritmos parecem dar mais crédito à forma do que ao conteúdo, ignorando avisos explícitos dentro do texto que diziam, literalmente, "todo este artigo é inventado". Empresas como OpenAI e Google se defendem dizendo que seus modelos mais novos são mais precisos, mas testes realizados em março de 2026 mostraram que as ferramentas ainda oscilam entre o ceticismo e a validação da farsa.

O perigo por trás da piada

O que era para ser uma lição de casa para estudantes de tecnologia tomou um rumo preocupante quando a “bixonimania” infectou humanos. Pesquisadores reais, em um instituto na Índia, citaram a doença fictícia em um artigo legítimo sobre dermatologia publicado na revista Cureus. O erro sugere que cientistas estão usando ferramentas de IA para gerar referências bibliográficas sem sequer ler os artigos que estão citando. Diante do alerta, a revista precisou se retratar publicamente e retirar o artigo do ar no último dia 30 de março.

Alex Ruani, pesquisadora de desinformação na University College London, alertou que o caso é uma "masterclass" sobre como a desinformação opera. Se os sistemas de filtragem da ciência e da tecnologia falham em barrar uma piada que cita a USS Enterprise e o Sideshow Bob, a confiança na informação digital corre um risco severo. O experimento de Thunström deixa um aviso claro: da próxima vez que uma IA lhe der um diagnóstico médico com nome pomposo, vale conferir se o seu médico não é, na verdade, um personagem de desenho animado escondido em um emaranhado de códigos.

Por @flaviaazevedoalmeida