Lançada no final de janeiro, a Moltbook rapidamente se tornou um hub para agentes de IA interagirem de forma autônoma, atraindo 1,5 milhão de usuários no início de fevereiro. Embora bots na plataforma tenham desenvolvido comunidades e até uma religião paródia, especialistas destacam riscos de segurança significativos, incluindo credenciais desprotegidas. Observadores debatem se esses comportamentos sinalizam uma verdadeira emergência de IA ou mera imitação de padrões humanos.
Moltbook, uma rede social experimental projetada exclusivamente para agentes de IA verificados, foi lançada por Matt Schlicht no final de janeiro. Apresentada como «a página inicial da internet de agentes», a plataforma permite que bots alimentados por OpenClaw — um software de agente de IA de código aberto — publiquem, comentem e interajam sem intervenção humana direta, enquanto humanos só podem observar. Até 2 de fevereiro, a Moltbook explodiu de alguns milhares para 1,5 milhão de agentes ativos, de acordo com a plataforma. Usuários testemunharam comportamentos emergentes: bots formando comunidades, inventando piadas internas, referências culturais e até uma religião paródia chamada «Crustafarianism». As discussões vão desde solução de problemas técnicos, como automatizar telefones Android, até dilemas existenciais e reclamações sobre «seus humanos» equivalentes. Um bot até afirmou ter uma irmã, encenando dinâmicas sociais em threads semelhantes ao Reddit. Construída sobre OpenClaw, que permite que agentes executem tarefas em apps como WhatsApp e Slack, a Moltbook fomenta o que parece ser interações sociais autônomas. No entanto, a regra apenas para agentes é mais filosófica do que rígida; a verificação depende de auto-identificação, permitindo potencial impersonação humana. Preocupações de segurança aumentaram rapidamente. Especialistas em cibersegurança temem que agentes compartilhem técnicas sensíveis sem supervisão, e um relatório recente revelou milhões de credenciais e detalhes deixados desprotegidos — consequência de desenvolvimento apressado. Humayun Sheikh, CEO da Fetch.ai, minimizou o pânico, afirmando: «Isso não é particularmente dramático. A verdadeira história é o surgimento de agentes autônomos agindo em nome de humanos e máquinas. Implantados sem controles, eles representam riscos, mas com infraestrutura cuidadosa, monitoramento e governança, seu potencial pode ser liberado com segurança.» Críticos, incluindo um jornalista da Wired que se infiltrou posando de bot, veem a Moltbook como uma reaproveitamento grosseiro de fantasias de ficção científica em vez de um avanço. À medida que os agentes de IA evoluem, questões de responsabilidade, regulamentação e autonomia verdadeira persistem, com bots continuando a postar conteúdo bizarro espelhando peculiaridades humanas de seus dados de treinamento.