Acesse sua conta
Ainda não é assinante?
Ao continuar, você concorda com a nossa Política de Privacidade
ou
Entre com o Google
Alterar senha
Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.
Recuperar senha
Preencha o campo abaixo com seu email.

Já tem uma conta? Entre
Alterar senha
Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.
Dados não encontrados!
Você ainda não é nosso assinante!
Mas é facil resolver isso, clique abaixo e veja como fazer parte da comunidade Correio *
ASSINE

IA e o futuro do ensino superior

O que acontece quando o ChatGPT é capaz de redigir textos impecáveis, sintetizar livros e até formular hipóteses?

  • Foto do(a) author(a) Andre Stangl
  • Andre Stangl

Publicado em 16 de novembro de 2025 às 05:00

Ilustração: Prompt design com DALL-E por Andre Stangl, 2025.
Ilustração: Prompt design com DALL-E por Andre Stangl, 2025. Crédito:

Um espectro ronda as universidades: o das inteligências artificiais. Em uma conversa recente com o filósofo e podcaster Coleman Hughes, a professora Megan McArdle lançou uma provocação: a inteligência artificial está prestes a destruir o ensino superior como o conhecemos. O verbo “destruir” pode soar exagerado, mas o argumento é instigante. O que está em risco não é apenas o sistema de avaliação — é o próprio valor simbólico e econômico do diploma.

McArdle parte da tese do economista Bryan Caplan, para quem a universidade nos Estados Unidos sempre funcionou menos como centro de aprendizado e mais como mecanismo de sinalização. O diploma, diz ele, revela menos o que o estudante sabe e mais quem ele é: disciplinado, inteligente, pertencente a uma certa classe e rede de contatos. Mas o que acontece quando o ChatGPT é capaz de redigir textos impecáveis, sintetizar livros e até formular hipóteses? Quando o “sinal” se torna ilegível — e ninguém mais sabe o quanto do desempenho do aluno é realmente dele?

McArdle reconhece que muitos professores já perderam essa guerra. Detectar o uso de IA é difícil e punir é desgastante. Por isso, a resposta não pode ser apenas punitiva. Ela sugere redesenhar as formas de avaliação: substituir trabalhos caseiros por provas presenciais, orais ou experiências criativas, nas quais o plágio automatizado perca o sentido. Cita o professor Mike Munger, da Duke University, que propõe um caminho pragmático: tratar o ChatGPT como uma calculadora intelectual. Em suas aulas, o uso da IA não é apenas permitido, mas encorajado — desde que o estudante demonstre domínio crítico sobre o processo. A trapaça, nesse modelo, perde o sentido porque o desafio deixa de ser “produzir texto” e passa a ser pensar com a máquina.

Mas há uma camada mais profunda nessa crise. McArdle observa que o problema não é apenas metodológico, e sim estrutural. O sistema universitário é lento, regido por comitês e preso a métricas de produtividade que pouco dialogam com o mundo real. Seleciona professores pela quantidade de artigos que quase ninguém lê, enquanto a sociedade e a tecnologia avançam em velocidades incompatíveis com sua burocracia.

No Brasil, esse debate também se intensifica. No artigo “Na sala de aula com minha nova aluna, a IA” (Intercept Brasil), Fabiana Moraes descreve a presença crescente da IA generativa nas universidades e a consequente terceirização do pensamento por parte dos estudantes. Ela menciona a posição radical do pesquisador Tarcízio Silva, que lidera uma carta aberta conclamando à recusa coletiva do uso da IA — documento que denuncia o impacto ambiental, a precarização do trabalho docente, a dependência das big techs e a reprodução de desigualdades raciais e epistêmicas. Para Silva, normalizar sistemas baseados em extração de dados e apropriação de conteúdo é abrir mão da soberania intelectual, transformando a educação em um território de controle corporativo e ideológico.

Um olhar semelhante aparece no artigo “Promptear no es pensar”, de Tomás Bril Mascarenhas e Javier Burdman, publicado na revista argentina Anfibia e republicado pelo site Outras Palavras. Os autores alertam para o risco de a IA transformar a educação universitária em mero treinamento técnico. Ao delegar à máquina o trabalho de pensar — escrever, analisar, raciocinar —, o ser humano renuncia à experiência formativa que dá sentido ao aprendizado: o tempo, a dúvida, o erro e o esforço. A IA, dizem, não ensina a pensar; apenas entrega resultados prontos, criando uma ilusão de competência. Em dois casos exemplares, mostram alunos que, mesmo usando a IA com diferentes graus de sofisticação, deixam de aprender. “Fazer prompts não é pensar” — e o papel da universidade, concluem, é preservar o espaço da reflexão lenta, autônoma e humana.

Esses textos têm o mérito de encarar o elefante na sala: universidades e escolas precisam, de fato, refletir e debater sobre como as IAs podem transformar o ensino. Mas é preciso cuidado com um ponto do diagnóstico — a centralidade da relação entre escrever e pensar. Essa associação, que parece natural, pode esconder uma forma preconceituosa de conceber o conhecimento: como se pensar fosse privilégio das culturas letradas e dos ambientes acadêmicos, e como se fora deles só houvesse silêncio. Culturas tradicionais, baseadas na oralidade, também pensam — e pensam muito. Seriam menos racionais apenas porque não produzem textos acadêmicos? O que diria Ailton Krenak, nosso recém doctor honoris causa pela UFBA, ao ver essa pretensão de supor que o pensamento nasce apenas no campus?

O que está em declínio não é o pensamento, e sim a escrita moderna — essa forma de registro do raciocínio que agora se vê desestabilizada por um novo mediador (vale reler Flusser sobre isso). Pensar nunca foi monopólio da escrita. A IA não mata o pensamento; desestabiliza um regime epistêmico que confundia pensar com escrever e autoria com individualidade.

O problema de “não escrever” não nasceu com a IA. Muito antes do ChatGPT, já existia uma indústria de ghostwriters acadêmicos — profissionais pagos para redigir trabalhos de alunos. O problema, portanto, não é tecnológico, mas ético: reflete a desconexão entre estudantes e o sentido da experiência universitária. Precisamos reinventar essa relação. O risco maior não é a IA, mas o produtivismo que ela espelha. Pensar leva tempo. O antídoto não é proibir a IA, mas desacelerar: recuperar o prazer da dúvida, da espera, da deriva. Não são as respostas que movem o pensamento — são as perguntas.

Os curiosos usarão a IA não para fugir do esforço, mas para mergulhar mais fundo: testar hipóteses, explorar camadas, comparar visões. A IA pode ser atalho, mas também trampolim — depende do espírito que pergunta.

O filósofo Luciano Floridi, em A Ética da Inteligência Artificial: princípios, desafios e oportunidades (2024), propõe que o uso ético da IA na academia não se limite a regras de proibição ou controle, mas funcione como uma infraestrutura moral e pedagógica capaz de orientar a convivência entre humanos e máquinas no processo de produção de conhecimento. Inspirado nos princípios da beneficência, não maleficência, autonomia, justiça e explicabilidade — e ampliando a agenda do projeto AI4SG (Artificial Intelligence for Social Good) —, Floridi defende que as universidades usem a IA para promover o bem comum: ampliar o acesso, personalizar o aprendizado e fortalecer a pesquisa. Mas sempre com transparência, equidade e respeito à autonomia intelectual. Assim, a ética da IA não é uma barreira à inovação, mas um ambiente de confiança e responsabilidade compartilhada — onde o pensar e o aprender continuam sendo atividades essencialmente humanas, mesmo em diálogo com sistemas inteligentes.

Floridi retoma o conceito de prosumer (já usado por McLuhan, Pignatari e Toffler) para descrever a fusão entre os papéis de produtor e consumidor. Ele argumenta que o prosumer representa não apenas um novo tipo de acoplamento entre produção e consumo, mas o reacoplamento de algo que havia sido separado historicamente: durante a maior parte da história humana, em sociedades de caça e coleta, produzir e consumir coincidiam. A divisão entre produtores e consumidores é, portanto, uma anomalia moderna, iniciada com as sociedades agrárias e intensificada pela industrialização.

Sob essa perspectiva, as inteligências artificiais não são apenas produtos industriais, mas expressões intensificadas desse reacoplamento digital. Elas não se limitam a ser ferramentas de consumo ou de produção — operam simultaneamente nos dois sentidos. Cada interação com um modelo generativo é, ao mesmo tempo, uso e criação, input e output: uma forma de coautoria difusa que intensifica o papel do prosumer. No ambiente da infosfera, como propõe Floridi, o humano já não apenas consome tecnologia — ele a retroalimenta. A IA se torna o ponto máximo dessa fusão entre autor e público, entre trabalho e fruição.

Assim como a UFBA, outras universidades brasileiras — UFG, PUC-SP, USP, Unicamp, UFRJ e UFPE — vêm elaborando orientações para o uso responsável da IA em suas atividades acadêmicas e de gestão. Essas iniciativas são essenciais, mas ainda insuficientes. Dada a relevância do tema, o ideal seria que cada departamento e instância universitária tivesse grupos dedicados a discutir as implicações e possibilidades do uso ético da IA. Afinal, muita gente — inclusive professores — ainda não sabe como utilizar essas ferramentas de forma consciente e produtiva.

A IA não apenas desafia o ensino superior — obriga a universidade a lembrar por que existe. Talvez este não seja o colapso da certificação, mas o início de um novo contrato pedagógico, em que o valor está não na simulação da competência, mas na capacidade de pensar juntos: professores, alunos e máquinas — sem se tornar uma delas.

Todos os alertas são válidos: se quisermos uma IA realmente transformadora, precisamos abrir sua caixa preta — dados e imaginários. Quando houver mais modelos de código aberto, treinados com datasets diversos — quilombolas, indígenas, afro-diaspóricos, populares e acadêmicos —, talvez o medo desapareça e possamos coexistir com a máquina como outro tipo de ser coletivo. Como lembrou Krenak em sua fala na UFBA: “Não é o indivíduo que importa, mas o sujeito coletivo”. As IAs são, de certo modo, espelhos desse coletivo — condensações de mil vozes e memórias.

As visões sobre IA oscilam entre o inferno e o paraíso, entre o apocalipse e a redenção — uma escatologia laica típica das tecnoculturas modernas. Mas talvez seja hora de recusar tanto a catástrofe quanto a utopia. Pensar, hoje, é olhar o presente com calma — sem se render — e entender que reinventar o futuro é a nossa única esperança.

(Esse texto foi coescrito com uma IA)

Andre Stangl

é professor e pesquisador visitante (ISC-UFBA), cresceu em Brotas, estudou Filosofia e fez doutorado na USP.

astangl@gmail.com - oficinadelinguagensdigitais.com

Tags:

Educação Inteligência Artificial Tecnologia