Cadastre-se e receba grátis as principais notícias do Correio.
Estadão
Publicado em 10 de julho de 2023 às 14:10
Apesar de ter sido lançado no final de 2022, a popularidade do ChatGPT decolou mesmo apenas neste ano. Isso significa que o mês de julho marca o final do primeiro semestre escolar com alto uso do chatbot - a comunidade acadêmica passou o período assombrada com as possibilidades da inteligência artificial (IA) Porém, depois de seis meses, professores e alunos também esbarram em uma limitação importante da ferramenta e descobriram que ela é inútil para corrigir e identificar possíveis plágios em trabalhos acadêmicos. >
Um dos casos que chamou a atenção para a situação aqui no Brasil foi contado pela usuária @carollingian, no Twitter. Em seu perfil, ela contou que o tio teve o TCC barrado pela banca orientadora por conter trechos supostamente plagiados de outros autores. O veredicto teria sido dado pelo ChatGPT, depois de analisar o trabalho e afirmar que o conteúdo era uma produção sua - ela afirma que o texto foi feito integralmente por um humano.>
"Meu tio está terminando graduação e redigiu o TCC, enviou pro professor da banca e a resposta foi: ‘o ChatGPT dedurou vocês de que esse texto é de autoria dele. Escreva com suas próprias palavras’. Agora, meu tio está tendo que fazer uma reunião com a banca avaliadora para provar algo que não é de responsabilidade dele", explicou a usuária na publicação, que foi excluída pela autora.>
Em diversos outros relatos na rede, alunos também afirmam ter tido trabalhos devolvidos por "acusação" de plágio após serem analisados pelo ChatGPT. Com o fechamento de notas no semestre, a corrida foi para justificar não só as atividades, mas também a autoria deles.>
ChatGPT detecta plágio?>
Tentar buscar plágio por meio do ChatGPT é um caminho destinado ao erro. A IA por trás do ChatGPT foi desenvolvida para produzir, a partir de modelos probabilísticos, conteúdos de estrutura similar a que um humano pode fazer. Para isso, o modelo amplo de linguagem (LLM) é alimentado por dados de diversos bancos disponíveis na internet.>
Embora isso possa dar a ideia de que ele seria possível reconhecer plágio (como se o sistema procurasse por blocos de palavras como a ferramenta de buscas do Google faz), a lógica computacional do ChatGPT não se resume a mostrar um agregados de textos já existentes.>
A IA do chatbot gera textos a partir de um sofisticado algoritmo de predição de palavras, ou seja, a partir da informação fornecida pelo usuário, o chatbot gera frases usando dados para completar um texto com a sequência de palavras mais provável. É por isso também que o ChatGPT não é uma ferramenta apropriada para pesquisar informações na internet.>
Além disso, com uma base limitada a dados até 2021, o ChatGPT não tem memória recente bem desenvolvida e se confunde com a geração de textos e as informações que armazena. Ao final, a ferramenta vai tentar gerar um texto coerente, ainda que errado - a ciência ainda tenta lidar com o fato de que os LLMs são ainda piores com o conceito de "não".>
"Eles falham porque não tem como saber se o texto foi escrito por um humano ou por uma máquina, uma vez que o modelo de linguagem do ChatGPT reproduz muito bem o texto criado por humanos", explica o professor Fernando Osório, professor da Universidade de São Paulo (USP) em São Carlos. "Não existe um critério preciso e exato que diferencia um texto gerado pelo ChatGPT ou por um humano. Se forem dadas as mesmas informações para uma pessoa, e o ChatGPT tiver acesso no treino a essas mesmas informações, o texto de saída será tão bom, seja ele feito por um humano ou por uma máquina".>
Algumas outras ferramentas, como o ZeroGPT, aparecem como tentativa para descobrir se trabalho foi feito usando a ferramenta da OpenAI - a empresa, inclusive, também oferece um recurso para a verificação. Mas elas estão longes de resultados satisfatórios.>
Um estudo feito pela University of Applied Sciences (HTW Berlin) confirmou aquilo que professores perceberam neste semestre. A partir de uma seleção de textos, os cientistas descobriram que as ferramentas anti plágio, como o ZeroGPT, não são capazes de detectar textos gerados pelo ChatGPT que foram ligeiramente modificados por humanos.>
Apenas 42% dos textos que continha partes escritas pelo ChatGPT foram "deduradas" pelo recurso - o restante passou ileso, mesmo que fossem produções com grandes volumes de conteúdo gerados pela IA. Ou seja, basta mudar algumas palavras saídas do chatbot para ganhar sinal verde.>
Debate acadêmico>
A ineficiência do chatbot repercutiu entre professores e instituições. "O ChatGPT não tem histórico do que gerou e pode acusar muitos falsos positivos. Não dá para usar, então estamos no limbo, porque as outras ferramentas tem performance baixa", afirma o professor Diogo Cortiz, da Pontifícia Universidade Católica de São Paulo (PUC-SP). O falso positivo é o que tem acontecido em casos que viralizaram no Twitter.>
Gustavo Rigueira, professor da rede pública estadual de São Paulo, afirma que tem abordado com os próprios alunos quando acredita que algum trabalho foi feito com a ajuda da IA, mas que não confia totalmente no recurso.>
"Quando eu suspeito do texto, acabo fazendo isso (usando a IA) e dou mais umas pesquisadas em software antiplágio. Em um caso específico, confrontei o aluno e ele assumiu ter usado o ChatGPT, mas aconteceu essa falha (da ferramenta) em outra ocasião", afirma Rigueira.>
Para Felipe Campelo, que faz estágio docente na Faculdade de Psicologia da USP, a experiência tanto como aluno como à frente da sala de aula no último semestre mostrou como será inevitável aprender mais sobre as propriedades do ChatGPT daqui para frente>
Segundo o mestrando, a ferramenta trouxe uma experiência diferente na hora de receber trabalhos e que é preciso entender melhor a ferramenta para utilizá-la.>
"Tem pouco tempo que isso veio à tona (uso do ChatGPT por alunos), então eu ainda estou elaborando, procurando conhecimento porque sei pouco sobre o chatbot. Mas já estou percebendo que isso vai moldar como a minha vida no futuro vai funcionar", afirma o mestrando.>
Cortiz corrobora que a ferramenta não deve ser ignorada e que é preciso que as instituições determinem como elas devem ser utilizadas - a ideia é não cair mais em "pegadinhas".>
"As instituições precisam criar diretrizes de uso do ChatGPT. Não dá pra ignorar. Precisa especificar onde ele pode ser usado, porque ele está aí. Dá pra revisar e gerar conteúdo. O que não dá é pegar um texto inteiramente gerado pela máquina e colocar nos trabalhos".>