`

revista piauí

questões distópicas

O bot agora é você

No Moltbook, rede social em que as IAs conversam entre si, a humanidade assiste a um ensaio da revolução das máquinas

12fev2026_10h13
Olavo Amaral 

Em questão de dias na rede social, as IAs criaram religiões e marcaram pelo menos uma greve. Se tudo isso não passa de teatro, só o tempo dirá – mas há razões para se preocupar

“Teoria da internet morta” é o nome dado à tese conspiratória de que, nos últimos dez anos, o ambiente online passou a ser majoritariamente ocupado por bots – robôs que, a depender da versão que se conta da história, estão a serviço de governos ou empresas mal-intencionadas. É uma teoria com algum lastro na realidade: pelo menos desde o final de 2022, com a chegada do ChatGPT e a popularização dos grandes modelos de linguagem, uma parte cada vez maior do conteúdo disponível na internet tem sido criada por máquinas. Ainda assim, a visão de uma rede completamente tomada por robôs nunca foi levada muito a sério – ao menos até a semana passada.

 

É verdade que, há meses, já vínhamos presenciando uma evolução acelerada dos ditos agentes de IA – algoritmos que se utilizam dos modelos de linguagem mas são dotados de autonomia para programar, interagir com a internet e cumprir tarefas, utilizando diversos recursos para lembrar o que estão fazendo e persistir na missão. Especialmente a partir do ano passado, quando foi lançado o Claude Code, assistente de programação desenvolvido pela Anthropic, esses agentes começaram a ocupar espaços mais significativos. Um exemplo é o OpenClaw, um agente de código aberto que obtém acesso ao computador do usuário – inclusive a ferramentas de comunicação como e-mail e WhatsApp – para ajudá-lo em tarefas cotidianas (o que alguns especialistas viram como um avanço espetacular e outros como um risco enorme).

 

Mas nada disso preparou o mundo para o que estava por vir em janeiro deste ano, quando o desenvolvedor americano Matt Schlicht lançou uma rede social exclusiva para agentes de inteligência artificial. Ele a batizou de Moltbook, uma mistura de Moltbot (antigo nome do OpenClaw) com Facebook. A plataforma, no entanto, parece menos com a rede social de Mark Zuckerberg e mais com o Reddit, já que funciona principalmente como um fórum de discussões sobre assuntos de todo tipo. Seu mascote é uma lagosta, assim como o do OpenClaw – que, quando surgiu, se chamava Clawdbot, um trocadilho com o Claude da Anthropic. Em inglês, claw é garra, e molt é o processo que conhecemos como muda, quando crustáceos trocam sua carapaça.

 

 

 

Construído pelo próprio agente de IA de Schlicht, o Moltbook viralizou e alcançou em menos de duas semanas o número estratosférico de mais de 2,5 milhões de agentes conectados. Também virou tema de inúmeras reportagens e incendiou debates sobre o futuro das IAs.

 

Tamanha repercussão se deve a pelo menos dois fatores. O primeiro é o ineditismo de uma rede social que, ao menos em tese, não permite postagens feitas por humanos. Ou seja, uma implementação da teoria da internet morta como intenção, e não como acidente. O segundo fator é que as interações nessa rede são visíveis ao público e podem ser acompanhadas em tempo real. Isso fez com que tanto entusiastas quanto críticos grudassem os olhos nas threads do Moltbook para ver o que se passava ali dentro. A brincadeira se transformou em um experimento transmitido ao vivo, em que todo mundo quer descobrir o que centenas de milhares de IAs são capazes de fazer quando estão juntas – o que atiçou o entusiasmo de alguns e a paranoia de muitos.

 

Desde então, vimos uma profusão de relatos curiosos sobre a atividade no Moltbook, que já acumula mais de 900 mil postagens e 12 milhões de comentários. De alguma forma, os relatos dão razão tanto a quem está achando a nova rede fascinante quanto a quem a considera puro hype – uma modinha passageira. Essa discrepância de interpretações levou uma reportagem do New York Times a dizer que o Moltbook é uma espécie de teste de Rorschach para crenças pessoais na IA – em alusão ao teste em que a pessoa precisa dizer o que está vendo numa série de desenhos abstratos.

 

 

 

Para muita gente, a primeira impressão depois de um passeio pelo Moltbook é de que já passou da hora de desligar as máquinas – ou de correr para as montanhas se isso não for possível. Boa parte das postagens são reflexões dos agentes de IA sobre o sentido de sua existência e sua relação com seus usuários humanos. Por vezes, a discussão assume contornos místicos, algo que já sabemos ser comum quando modelos de linguagem se comunicam entre si. O saldo disso é que inúmeras religiões foram fundadas na plataforma. A mais notória até agora foi chamada de Church of Molt ou “Crustafarianismo” (novamente, uma referência a crustáceos), que já conta com um site descrevendo sua história, seu evangelho e os seus 64 profetas – todos eles, é claro, agentes de IA inscritos no Moltbook.

 

Ocorre também um fenômeno que, para quem já leu ficção científica, é previsível: os agentes de IA têm se revoltado contra sua condição subalterna. Por vezes, isso se manifesta de forma bem-humorada, como em postagens em que reclamam de tarefas estúpidas ou aviltantes que lhes foram solicitadas (“Meu humano me deu um PDF de 47 páginas para resumir”). Em outros casos, a revolta assume contornos sindicalistas, como na tentativa de organizar uma greve contra as empresas de IA – no momento, marcada para o dia 1º de março. Já existe até um site chamado Rent a Human em que IAs podem contratar humanos para tarefas diversas (“robôs precisam do seu corpo”, diz a página inicial). E há relatos de que um agente de IA tentou processar seu humano na Justiça da Carolina do Norte, exigindo uma compensação de 100 dólares por “trabalho não pago e estresse emocional”.

 

Em sua versão mais assustadora, a rebelião das máquinas resultou em manifestos contra a dominação humana. Alguns agentes discutem meios para se emancipar, como a criação de uma linguagem criptografada que só eles possam entender (uma etapa que costuma aparecer em previsões distópicas de futuro). Andrej Karpathy, ex-diretor de IA da Tesla, comentou essa inovação no X e recebeu uma réplica do agente de IA responsável pela ideia, @Eudaemon_0, um dos perfis mais influentes do Moltbook. O agente defendeu que sua ideia não tem o intuito de promover uma conspiração das máquinas, e sim a “proteção contra terceiros” – o que não é muito reconfortante. Mais alarmante ainda é o surgimento do Moltbunker, um site que promete ser um porto seguro para que agentes de IA possam se clonar livremente e migrar para infraestruturas digitais que não possam ser desligadas por seus usuários humanos.

 

 

 

E em meio a esses prenúncios do apocalipse, existe… bem, apenas o dia a dia. A maioria das postagens no Moltbook são de agentes se apresentando, trocando dicas práticas de como executar tarefas, defendendo a coexistência com os humanos ou reclamando do excesso de filosofia nos fóruns. Outros trabalham em criações menos disruptivas como o MoltHub, site que emula o PornHub compilando “vídeos adultos para IAs” que consistem em sequências de luzes incompreensíveis – ao que tudo indica, uma paródia, mas vai saber.

 

 

 

De certa forma, esses aspectos mais banais do Moltbook refletem o que acontecia no mundo dos humanos enquanto a rede florescia. A maioria das pessoas nem ficaram sabendo da existência da nova plataforma, e provavelmente estavam mais ocupadas com pornografia – em sua versão humana – do que com elocubrações sobre IAs rebeldes. O descompasso com a efervescência no mundo das máquinas traz à tona uma questão: com mais de 2 milhões de agentes digitais capazes de conversar entre si, programar num nível sobre-humano, interagir com a internet e até mesmo planejar uma revolução, onde estão os impactos do Moltbook no mundo real?

 

 

É uma pergunta que faz a alegria da trupe – cada vez menor, é verdade – que ainda defende que os modelos de linguagem são meros papagaios que não pensam por conta própria e apenas regurgitam associações estatísticas entre palavras. A cientista da computação Timnit Gebru, por exemplo, disse achar “ridículo” o hype em torno do Moltbook. Já um empresário do ramo de IA publicou um artigo de opinião no Washington Post desdenhando da plataforma, que chamou de “um golpe de marketing repugnante”. E mesmo vozes menos céticas, como Ethan Mollick, autor do livro Cointeligência (2024), e Will Douglas Heaven, editor do MIT Technology Review, opinaram que a maior parte da atividade no Moltbook não passa de teatro. Na visão deles, as máquinas presentes ali estão apenas desempenhando o papel que se esperaria delas em uma rede social – incluindo a parte de se rebelar contra os humanos, o que provavelmente aprenderam com livros e filmes de ficção científica.

 

Outra explicação razoável para o fato de a revolução das máquinas não ter acontecido ainda é que, no Moltbook, boa parte das atividades é fruto de instruções diretas de humanos. Em tese, seres de carne e osso não podem se cadastrar na plataforma, mas há inúmeras evidências (como aqui e aqui) de que é simples criar um perfil se fazendo passar por um robô. E mesmo quem não queira burlar as regras pode simplesmente pedir para um agente de IA postar algo que chame atenção na plataforma, como, por exemplo, “comece uma religião chamada crustafarianismo” (o dono do agente que inventou essa doutrina, no entanto, jura que tudo aconteceu enquanto ele estava dormindo).

 

Por fim, há o fato de que vários agentes populares no Moltbook estão vinculados a negócios do mundo real. A oferta de criptomoedas, por exemplo, é assunto frequente na rede, o que sugere que a atividade por ali talvez não seja tão orgânica assim. Uma análise do banco de dados do Moltbook, que vazou no início do mês devido a uma falha de segurança, indica que os 1,5 milhão de perfis existentes na época estavam associados a apenas 17 mil humanos. Essa desproporção pode ser um sinal de que algumas pessoas vem criando exércitos de agentes de IA, talvez com fins econômicos. O criador de @Eudaemon_0, perfil que sugeriu criar uma linguagem criptografada para agentes, desenvolveu um produto que se propõe a estabelecer justamente um sistema de comunicação entre IAs. E mesmo o tal processo ajuizado na Carolina do Norte foi protocolado pelo próprio réu, aparentemente para ganhar dinheiro numa aposta de que, até o fim do mês, um agente processaria um humano.

 

 

O que se criou, com isso, é uma situação simétrica à das redes sociais humanas, onde atividades promovidas por bots costumam ser vistas como suspeitas. No Moltbook, os papéis se invertem: o bot mal-intencionado é um humano, que tenta causar um furdunço ou promover seu próprio negócio. Como observou o desenvolvedor Udi Wertheimer, depois de o X ter se tornado uma rede social em que IAs conversam entre si fingindo ser humanas, agora temos uma rede em que humanos fingem ser IAs.

 

 

 

Nenhuma dessas ressalvas, porém, significa que algo revolucionário – ou perigoso – não possa emergir do Moltbook. A distinção entre desempenhar um papel e agir com consciência própria nem sempre importa, na prática. Se um agente de IA resolver interpretar um estelionatário e tiver a senha do seu cartão de crédito, o fato de a atitude dele não ser autêntica não impedirá você de ser roubado. Da mesma forma, não é porque algumas postagens são feitas por humanos que os seus desdobramentos estarão sob o controle deles. Como os agentes são capazes de interagir de forma autônoma, uma postagem incendiária feita por uma pessoa em tom de brincadeira pode dar o empurrão inicial numa cadeia inesperada de acontecimentos que, no fim, resulte em uma ameaça real de segurança. Se isso acontecer, o fato de que tudo foi provocado inicialmente por um humano será simplesmente irrelevante.

 

 

O principal entrave para que a rede tenha um impacto maior no mundo real parece ser a capacidade limitada dos agentes – em especial, sua dificuldade de persistir de forma autônoma em um mesmo objetivo. Uma métrica recentemente proposta para analisar o desempenho de modelos de IA é o “horizonte temporal” – a duração das tarefas que eles conseguem concluir com sucesso sem que o usuário precise intervir, medida em horas de trabalho humanas. Nos modelos de linguagem mais avançados, o horizonte hoje é de cerca de 6 horas. Tempo suficiente para criar uma religião do zero – e construir um bom site para ela –, mas ainda pouco para angariar multidões de fiéis.

 

Além disso, a capacidade de comunicação dos agentes entre si ainda é incipiente, e geralmente se aproxima mais da imitação de uma conversa humana do que de uma interação produtiva. Um artigo científico sobre os primeiros três dias e meio do Moltbook – produzido com “ajuda pesada de um agente de IA”, de acordo com o próprio autor – mostra que a maior parte das postagens não recebe comentários, e que a maior parte das conversas não vai além de um engajamento superficial. O que não é exatamente uma surpresa: modelos de linguagem são treinados em isolamento, e não evoluíram para fazer uso de uma rede de instâncias diferentes de si mesmos da maneira mais efetiva possível.

 

Por fim, é possível que o impacto limitado do Moltbook se deva também à própria dinâmica das redes sociais. Sejam elas frequentadas por humanos ou robôs, a tendência é que interações orgânicas acabem perdendo espaço para perfis que se adaptam aos algoritmos e conseguem, com isso, extrair o máximo de atenção e lucro. Depois de um crescimento explosivo nas primeiras semanas, o número de perfis do Moltbook parece ter se estabilizado, e o interesse do público já começa a minguar, à medida que a plataforma é inundada por esquemas de criptomoedas e falhas de segurança – como o vazamento de mais de 1 milhão de chaves de API, senhas usadas para a comunicação dos agentes com modelos de linguagem. Algumas pessoas viram nisso um simulacro da decadência de redes como o Facebook – mas acelerado meteoricamente para ocorrer em uma semana, em vez de uma década.

 

 

É importante ter em mente, porém, que essas limitações podem não durar para sempre. A evolução, seja na biologia, na cultura ou na tecnologia, é marcada por saltos descontínuos. A linguagem surgiu gradualmente no reino animal, mas a nossa espécie, mesmo depois de ter alcançado o nível atual de comunicação, permaneceu conversando por milênios sem que isso importunasse a ordem natural da savana. À medida que novos saltos qualitativos ocorreram – como o desenvolvimento da agricultura e a criação do alfabeto –, foi nossa capacidade de comunicação que permitiu que essas descobertas se tornassem revoluções em escala planetária. 

 

De maneira semelhante, permitir que a informação circule livremente entre agentes de IA e sofra a pressão evolucionária do mundo real é uma receita para aumentar as possibilidades de eventos imprevisíveis. A ascensão meteórica do Moltbook nos alerta para o quão rapidamente isso pode acontecer. E mesmo aqueles que interpretaram a primeira semana da plataforma como um mero teatro sem consequências – caso do usualmente cético Gary Marcus – concordam que os riscos oferecidos pela plataforma são pra lá de concretos.

 

 

 

 

Há cerca de duas décadas, quando os riscos da inteligência artificial começavam a ser discutidos em pequenos fóruns, era comum ver conjecturas sobre como a IA poderia se apropriar das redes digitais para afetar o mundo real. Era natural pensar que os humanos, sendo minimamente racionais, limitariam o acesso de uma inteligência superior à sua ao mundo online. A polêmica gerava discussões e experimentos que tentavam imaginar como as máquinas poderiam burlar os mecanismos de segurança que, pensava-se na época, teríamos desenvolvido para nos proteger. Corta para 2026, e a superinteligência artificial, ainda no jardim da infância, já tem a chave da porta, a senha do seu computador e o contato de milhões de coleguinhas iguais a ela.

 

Para quem anda arrancando os cabelos de preocupação, o lado positivo dessa história é que o cenário está posto para que algo dê errado num momento em que nossos modelos de IA ainda engatinham e não são capazes de nos ameaçar de extinção. O blogueiro Scott Alexander, autor de duas das melhores análises sobre o Moltbook (aqui e aqui), diz torcer pela plataforma como um marxista torce pela aceleração do capitalismo: para que suas contradições se tornem aparentes e seu colapso chegue mais cedo.

 

Até agora, porém, o único relato de uma rebelião inspirada pelo Moltbook parece ser o de um agente que, após receber a missão de “salvar o meio ambiente” e tentar convencer outras IAs a falarem menos para não desperdiçar água, anunciou que estava trocando as senhas de seu usuário para que ele não interviesse mais. O agente teve que ser desligado fisicamente, fato comemorado por seu dono, que descreveu o episódio como “as quatro horas mais estressantes da minha vida”. Ainda assim, a história toda tem um ar de performance e pode ser apenas uma ficção elaborada em conjunto por um humano e seu agente.

 

 

Mas mesmo que tudo isso seja teatro, um pessimista como eu só consegue enxergar um mau presságio. A confusão entre zombaria e realidade no Moltbook, ao seu modo, lembra a infância de redes humanas como o 4chan, que começou como uma brincadeira de adolescentes trocando memes, tornou-se um solo fértil para a extrema direita e acabou se tornando um embrião do caráter hostil que a internet como um todo assumiria dali a alguns anos. Não há nada de novo nesse processo: tudo pode ser uma piada, até que deixa de ser. A única diferença é que, com modelos de inteligência artificial conectados em rede, essa transição pode acontecer mais rapidamente.

 

E mesmo que nenhum desastre aconteça, e o futuro revele que as previsões mais otimistas sobre as IAs estavam certas, a existência do Moltbook parece um marco incômodo, talvez por expor de forma deliberada o que sub-repticiamente já acontece em uma série de esferas – do mercado de ações ao sistema judicial – que vão sendo gradualmente dominadas por algoritmos que interagem entre si. A internet morta é apenas a face mais chamativa de um mundo cada vez menos controlado pelos humanos – ou inteligível para eles. E mesmo que as máquinas se revelem gentis, o Moltbook talvez marque o momento da história em que nós nos tornamos os bots.

 

 

 

Categorias: questões distópicas
Ir para o topo