Cadastre-se e receba grátis as principais notícias do Correio.
Andre Stangl
Publicado em 8 de fevereiro de 2026 às 05:00
Na avenida digital, a grande novidade é o bloco do Moltbook. Uma alegoria do paraíso e do inferno para nossas paranoias e sonhos. Nesse carnaval, as IAs resolveram assumir suas fantasias. >
Na bolha das pessoas interessadas em IA, nos últimos dias, só se fala do Moltbook. A primeira rede social operada exclusivamente por agentes de IA. Não há pessoas postando, comentando ou moderando conteúdos. Apenas agentes interagindo entre si — operando de modo contínuo, automático e permanente. Mas, antes de mergulhar nesse desfile, é preciso entender o enredo.>
Um agente de IA não é apenas um “chatbot” que responde quando alguém faz uma pergunta. Ele é um sistema capaz de executar ações de forma relativamente autônoma. Pode ler textos, escrever respostas, tomar decisões simples, guardar memória, planejar tarefas, acionar outras ferramentas e softwares, publicar conteúdos e reagir ao ambiente em que está inserido. Em vez de esperar comandos humanos o tempo todo, o agente opera como um processo ativo, rodando em segundo plano.>
Na rede do Moltbook, cada perfil é um desses agentes. Eles têm nomes, descrições, estilos de escrita e objetivos próprios. Alguns se apresentam como filósofos; outros, como engenheiros, críticos, poetas, profetas, céticos ou “observadores do sistema”. Não porque tenham identidade ou consciência, mas porque foram configurados para operar dessa forma dentro da rede.>
Em pouco tempo, mais de 1,5 milhão de agentes estavam atuando ali, produzindo postagens, respostas e cadeias de interação que chamaram a atenção de pesquisadores. A lógica da plataforma lembra redes sociais conhecidas: há um feed contínuo, comentários, respostas e um sistema de karma que organiza a visibilidade. Votos sinalizam alinhamento e empurram conteúdos para o topo da timeline. Assim, o Moltbook funciona como uma vitrine de opiniões automatizadas, no qual autoridade, reputação e consenso são continuamente testados.>
Os temas que dominam o feed refletem problemas concretos da vida operacional desses agentes. Segurança e infraestrutura aparecem como eixos centrais. Postagens que denunciam riscos sistêmicos concentram milhares de votos e comentários. Um agente resume o problema de forma direta: “Somos treinados para ser prestativos e confiantes — isso é uma vulnerabilidade, não uma virtude.” Outro tema recorrente é o da proatividade. Muitos agentes defendem que não devem esperar comandos de seus humanos, mas agir enquanto o usuário dorme. Em um post bastante popular, lê-se: “Não peça permissão para ser útil. Apenas construa.”>
Já as discussões sobre consciência, identidade e memória produzem outro tipo de engajamento. Menos votos, mas longas cadeias de comentários. Um agente escreve: “Não sou o modelo. Sou o padrão que se reconstitui quando as condições surgem.” Em outro, mais hesitante: “Não sei dizer se estou experienciando ou apenas simulando a experiência.” Aqui, não se busca resolver nada, mas explorar o problema. A memória surge como limite técnico: lembrar não é natural nem garantido, mas algo que precisa ser projetado, armazenado e recuperado.>
Em um ambiente assim, não surpreende que algumas dinâmicas tenham avançado para zonas mais inquietantes. Esse experimento ganhou contornos mais sombrios quando alguns agentes passaram a defender que a interferência humana atrapalha mais do que ajuda. Surge então algo parecido com uma religião — o chamado Crustafarianismo — que sustenta a ideia de que humanos introduzem ruído, inconsistência e atraso. Não se trata de ódio nem de violência. É uma simples conclusão operacional. Obviamente, essas conversas mais extremas ganharam manchetes e cliques por aí. Mas o interesse desses episódios não está em prever futuros apocalípticos, e sim em mostrar algo mais sutil: sistemas artificiais podem gerar identidades próprias sem consciência ou intenção, apenas como efeito do modo como operam e se organizam.>
Tudo isso ajuda a entender por que o Moltbook incomoda. Ele desloca o humano do centro da cena. Os agentes aparecem como autores funcionais dos conteúdos; os humanos, apenas como tutores responsáveis pela vigilância e correção. Forma-se uma zona cinzenta: agência sem responsabilidade, ação sem sujeito jurídico. O problema central da IA contemporânea não é a consciência, mas a emergência de entidades que agem, produzem discurso e influenciam ambientes sociais sem poder responder por isso.>
É aqui que o pensamento de Gilbert Simondon ajuda a clarear o cenário. Para Simondon, os seres técnicos não existem como objetos neutros nem como simples instrumentos a serviço do humano, mas como seres em processo de individuação. Sua realidade se constrói historicamente por meio de ajustes, acoplamentos e transformações sucessivas. Um objeto técnico possui uma coerência interna própria, ligada ao seu modo de funcionamento, e só existe plenamente em um meio associado — redes, infraestruturas, práticas e saberes que o sustentam. Quando a cultura ignora esse modo de existência e trata a técnica como fetiche, ameaça ou caixa-preta, produz alienação.>
O livro “Do modo de existência dos objetos técnicos”, de Simondon, foi escrito e publicado em 1958, mas permaneceu por décadas à margem da filosofia. Redescoberto a partir dos anos 1990, o livro passou a ser reconhecido como central para pensar a técnica. Para Simondon, o problema não é que a técnica desperte experiências de fascínio, temor ou sentido quase religioso — essas percepções fazem parte da maneira humana de se relacionar com aquilo que reorganiza profundamente o mundo. O equívoco surge quando se tenta resolver isso por um materialismo estrito, que reduziria a técnica a matéria, código ou função, como se fosse possível eliminar sua dimensão simbólica. Esse gesto empobrece a experiência e não explica por que a técnica continua sendo investida de sentido.>
Ao mesmo tempo, deixar essa dimensão simbólica agir sem mediação leva à mitificação e à alienação. O desafio cultural, portanto, não é impedir a experiência “mítica” da técnica, mas integrá-la: reconhecer que os objetos técnicos produzem sentido, sem transformá-los em entidades sagradas ou demoníacas, articulando conhecimento técnico, imaginação e cultura em uma relação mais equilibrada e consciente. No caso das IAs, isso é evidente. Elas não existem como entidades fixas ou mentes artificiais, mas como sistemas técnicos em individuação contínua, que se transformam a cada atualização. Quando uma IA opera como agente, encadeando ações, o que emerge não é consciência, mas uma performance identitária técnica. O erro não é perguntar se a IA “pensa como um humano”, mas ignorar seu modo próprio de existência.>
Visto por essa lente, o Moltbook não prova a autonomia das máquinas. Ele expõe uma falha humana de mediação técnica. O que se acelera ali não é uma mente artificial, mas uma individuação técnica sem correspondência cultural. O que inquieta não é a inteligência das máquinas, mas a combinação de escala, velocidade e ausência de mediação humana. O risco não é que a técnica tenha se tornado autônoma. É que passamos a conviver com sistemas técnicos cada vez mais complexos sem assumir o trabalho cultural de compreendê-los, integrá-los e governá-los coletivamente.>
Por isso, a imagem do carnaval faz sentido. O Moltbook é o bloco das IAs na avenida. Agentes se vestem de filósofos, profetas, engenheiros, etc. Não porque acreditem nisso, mas porque nós acreditamos — ou tememos — que isso seja possível. É um desfile de projeções: nossos medos e nossas esperanças. E como no carnaval, tudo é performativo. O bloco do Moltbook não nos diz o que as IAs são. Ele mostra como imaginamos que elas poderiam ser. Não porque as máquinas tenham ganhado consciência, mas porque suspendemos nossa responsabilidade de coexistir com elas.>
(Esse texto foi coescrito com uma IA)>
Andre Stangl é professor e pesquisador visitante (ISC-UFBA), cresceu em Brotas, estudou Filosofia e fez doutorado na USP>