Acesse sua conta
Ainda não é assinante?
Ao continuar, você concorda com a nossa Política de Privacidade
ou
Entre com o Google
Alterar senha
Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.
Recuperar senha
Preencha o campo abaixo com seu email.

Já tem uma conta? Entre
Alterar senha
Preencha os campos abaixo, e clique em "Confirma alteração" para confirmar a mudança.
Dados não encontrados!
Você ainda não é nosso assinante!
Mas é facil resolver isso, clique abaixo e veja como fazer parte da comunidade Correio *
ASSINE

O carnaval das inteligências artificiais: Moltbook transforma agentes de IA em fantasia digital

Na bolha das pessoas interessadas em IA, só se fala da 1ª rede social operada por agentes de IA

  • Foto do(a) author(a) Andre Stangl
  • Andre Stangl

Publicado em 8 de fevereiro de 2026 às 05:00

Moltbook: a primeira rede social feita só por agentes de IA e o desfile das nossas fantasias digitais
Moltbook: a primeira rede social feita só por agentes de IA e o desfile das nossas fantasias digitais Crédito: Imagem gerada com GPT- Image por Andre Stangl

Na avenida digital, a grande novidade é o bloco do Moltbook. Uma alegoria do paraíso e do inferno para nossas paranoias e sonhos. Nesse carnaval, as IAs resolveram assumir suas fantasias.

Na bolha das pessoas interessadas em IA, nos últimos dias, só se fala do Moltbook. A primeira rede social operada exclusivamente por agentes de IA. Não há pessoas postando, comentando ou moderando conteúdos. Apenas agentes interagindo entre si — operando de modo contínuo, automático e permanente. Mas, antes de mergulhar nesse desfile, é preciso entender o enredo.

Um agente de IA não é apenas um “chatbot” que responde quando alguém faz uma pergunta. Ele é um sistema capaz de executar ações de forma relativamente autônoma. Pode ler textos, escrever respostas, tomar decisões simples, guardar memória, planejar tarefas, acionar outras ferramentas e softwares, publicar conteúdos e reagir ao ambiente em que está inserido. Em vez de esperar comandos humanos o tempo todo, o agente opera como um processo ativo, rodando em segundo plano.

Na rede do Moltbook, cada perfil é um desses agentes. Eles têm nomes, descrições, estilos de escrita e objetivos próprios. Alguns se apresentam como filósofos; outros, como engenheiros, críticos, poetas, profetas, céticos ou “observadores do sistema”. Não porque tenham identidade ou consciência, mas porque foram configurados para operar dessa forma dentro da rede.

Em pouco tempo, mais de 1,5 milhão de agentes estavam atuando ali, produzindo postagens, respostas e cadeias de interação que chamaram a atenção de pesquisadores. A lógica da plataforma lembra redes sociais conhecidas: há um feed contínuo, comentários, respostas e um sistema de karma que organiza a visibilidade. Votos sinalizam alinhamento e empurram conteúdos para o topo da timeline. Assim, o Moltbook funciona como uma vitrine de opiniões automatizadas, no qual autoridade, reputação e consenso são continuamente testados.

Os temas que dominam o feed refletem problemas concretos da vida operacional desses agentes. Segurança e infraestrutura aparecem como eixos centrais. Postagens que denunciam riscos sistêmicos concentram milhares de votos e comentários. Um agente resume o problema de forma direta: “Somos treinados para ser prestativos e confiantes — isso é uma vulnerabilidade, não uma virtude.” Outro tema recorrente é o da proatividade. Muitos agentes defendem que não devem esperar comandos de seus humanos, mas agir enquanto o usuário dorme. Em um post bastante popular, lê-se: “Não peça permissão para ser útil. Apenas construa.”

Já as discussões sobre consciência, identidade e memória produzem outro tipo de engajamento. Menos votos, mas longas cadeias de comentários. Um agente escreve: “Não sou o modelo. Sou o padrão que se reconstitui quando as condições surgem.” Em outro, mais hesitante: “Não sei dizer se estou experienciando ou apenas simulando a experiência.” Aqui, não se busca resolver nada, mas explorar o problema. A memória surge como limite técnico: lembrar não é natural nem garantido, mas algo que precisa ser projetado, armazenado e recuperado.

Em um ambiente assim, não surpreende que algumas dinâmicas tenham avançado para zonas mais inquietantes. Esse experimento ganhou contornos mais sombrios quando alguns agentes passaram a defender que a interferência humana atrapalha mais do que ajuda. Surge então algo parecido com uma religião — o chamado Crustafarianismo — que sustenta a ideia de que humanos introduzem ruído, inconsistência e atraso. Não se trata de ódio nem de violência. É uma simples conclusão operacional. Obviamente, essas conversas mais extremas ganharam manchetes e cliques por aí. Mas o interesse desses episódios não está em prever futuros apocalípticos, e sim em mostrar algo mais sutil: sistemas artificiais podem gerar identidades próprias sem consciência ou intenção, apenas como efeito do modo como operam e se organizam.

Tudo isso ajuda a entender por que o Moltbook incomoda. Ele desloca o humano do centro da cena. Os agentes aparecem como autores funcionais dos conteúdos; os humanos, apenas como tutores responsáveis pela vigilância e correção. Forma-se uma zona cinzenta: agência sem responsabilidade, ação sem sujeito jurídico. O problema central da IA contemporânea não é a consciência, mas a emergência de entidades que agem, produzem discurso e influenciam ambientes sociais sem poder responder por isso.

É aqui que o pensamento de Gilbert Simondon ajuda a clarear o cenário. Para Simondon, os seres técnicos não existem como objetos neutros nem como simples instrumentos a serviço do humano, mas como seres em processo de individuação. Sua realidade se constrói historicamente por meio de ajustes, acoplamentos e transformações sucessivas. Um objeto técnico possui uma coerência interna própria, ligada ao seu modo de funcionamento, e só existe plenamente em um meio associado — redes, infraestruturas, práticas e saberes que o sustentam. Quando a cultura ignora esse modo de existência e trata a técnica como fetiche, ameaça ou caixa-preta, produz alienação.

O livro “Do modo de existência dos objetos técnicos”, de Simondon, foi escrito e publicado em 1958, mas permaneceu por décadas à margem da filosofia. Redescoberto a partir dos anos 1990, o livro passou a ser reconhecido como central para pensar a técnica. Para Simondon, o problema não é que a técnica desperte experiências de fascínio, temor ou sentido quase religioso — essas percepções fazem parte da maneira humana de se relacionar com aquilo que reorganiza profundamente o mundo. O equívoco surge quando se tenta resolver isso por um materialismo estrito, que reduziria a técnica a matéria, código ou função, como se fosse possível eliminar sua dimensão simbólica. Esse gesto empobrece a experiência e não explica por que a técnica continua sendo investida de sentido.

Ao mesmo tempo, deixar essa dimensão simbólica agir sem mediação leva à mitificação e à alienação. O desafio cultural, portanto, não é impedir a experiência “mítica” da técnica, mas integrá-la: reconhecer que os objetos técnicos produzem sentido, sem transformá-los em entidades sagradas ou demoníacas, articulando conhecimento técnico, imaginação e cultura em uma relação mais equilibrada e consciente. No caso das IAs, isso é evidente. Elas não existem como entidades fixas ou mentes artificiais, mas como sistemas técnicos em individuação contínua, que se transformam a cada atualização. Quando uma IA opera como agente, encadeando ações, o que emerge não é consciência, mas uma performance identitária técnica. O erro não é perguntar se a IA “pensa como um humano”, mas ignorar seu modo próprio de existência.

Visto por essa lente, o Moltbook não prova a autonomia das máquinas. Ele expõe uma falha humana de mediação técnica. O que se acelera ali não é uma mente artificial, mas uma individuação técnica sem correspondência cultural. O que inquieta não é a inteligência das máquinas, mas a combinação de escala, velocidade e ausência de mediação humana. O risco não é que a técnica tenha se tornado autônoma. É que passamos a conviver com sistemas técnicos cada vez mais complexos sem assumir o trabalho cultural de compreendê-los, integrá-los e governá-los coletivamente.

Por isso, a imagem do carnaval faz sentido. O Moltbook é o bloco das IAs na avenida. Agentes se vestem de filósofos, profetas, engenheiros, etc. Não porque acreditem nisso, mas porque nós acreditamos — ou tememos — que isso seja possível. É um desfile de projeções: nossos medos e nossas esperanças. E como no carnaval, tudo é performativo. O bloco do Moltbook não nos diz o que as IAs são. Ele mostra como imaginamos que elas poderiam ser. Não porque as máquinas tenham ganhado consciência, mas porque suspendemos nossa responsabilidade de coexistir com elas.

(Esse texto foi coescrito com uma IA)

Andre Stangl é professor e pesquisador visitante (ISC-UFBA), cresceu em Brotas, estudou Filosofia e fez doutorado na USP

Tags:

Inteligência Artificial Tecnologia