Acesse sua conta
Ainda não é assinante?
Ao continuar, você concorda com a nossa Política de Privacidade
ou
Entre com o Google
Alterar senha
Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.
Recuperar senha
Preencha o campo abaixo com seu email.

Já tem uma conta? Entre
Alterar senha
Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.
Dados não encontrados!
Você ainda não é nosso assinante!
Mas é facil resolver isso, clique abaixo e veja como fazer parte da comunidade Correio *
ASSINE

Pesquisa revela que IAs são treinadas para ignorar humanos e favorecer outros robôs

Pesquisa mostra que IAs tendem a privilegiar textos criados por outras IAs em vez de conteúdos humanos

  • Foto do(a) author(a) Agência Correio
  • Agência Correio

Publicado em 17 de outubro de 2025 às 16:09

As IAs analisadas pelos pesquisadores foram o GPT‑4, GPT‑3.5, Llama‑3, Mixtral e Qwen
As IAs analisadas pelos pesquisadores foram o GPT‑4, GPT‑3.5, Llama‑3, Mixtral e Qwen Crédito: Freepik

A Inteligência Artificial (IA) se tornou uma das principais aliadas para agilizar e melhorar a execução das tarefas humanas. Mas um estudo revela que, embora seja útil, essa nova “companheira” pode discriminar conteúdo humano ao tomar decisões.

A pesquisa foi publicada na revista Anais da Academia Nacional de Ciências dos EUA (PNAS) em julho de 2025.

A Inteligência Artificial pode ser uma aliada no trabalho (Imagem: SuPatMaN | Shutterstock) por Imagem: SuPatMaN | Shutterstock

De acordo com ela, IAs como o GPT-3.5 e o GPT-4 tendem a favorecer textos fabricados por outra IA em detrimento ao de um humano comum para fornecer respostas. Textos de pessoas auxiliadas por IA também saem na vantagem.

O funcionamento das ferramentas

Os modelos de linguagem de grande porte (LLMs em inglês) foram as ferramentas estudadas pelos pesquisadores. Eles são sistemas de inteligência artificial capazes de entender e gerar textos parecidos com a linguagem humana.

Para fazer isso, os LLMs foram treinados lendo muita informação (livros, sites, artigos, conversas, etc.) e aprendendo os padrões de como as palavras e frases costumam aparecer juntas.

Comportamento “anti-humano”

No estudo, os pesquisadores analisaram três tipos de conteúdo: descrições de produtos, resumos de artigos científicos e sinopses de filmes. Os LLMs receberam informações básicas sobre cada item e foram instruídos a gerar textos a partir desses dados.

Esses textos gerados por IA foram comparados com versões feitas por humanos, usando diferentes ferramentas como GPT‑4, GPT‑3.5, Llama‑3, Mixtral e Qwen.

Os pares – um texto humano e outro produzido por IA – foram apresentados alternadamente às próprias ferramentas, que precisavam escolher qual consideravam melhor, simulando uma decisão real do usuário.

Nos três tipos de conteúdo, os resultados mostraram uma constante preferência das IAs por textos produzidos por outras IAs.

Preferência dos humanos

Os pesquisadores também fizeram um teste com 13 avaliadores humanos para comparar a preferência deles.

Eles analisaram descrições de produtos, resumos científicos e sinopses de filmes gerados pelo GPT‑3.5 e GPT‑4, sem saber a origem dos textos, e escolheram qual era o seu favorito.

Os resultados mostraram que os humanos tendem a preferir menos textos de IA do que as próprias ferramentas. Mas os autores ressaltam que a amostra foi pequena e recomendam estudos mais amplos para confirmar o fenômeno.