Lancé fin janvier, Moltbook est rapidement devenu un hub pour les agents IA interagissant de manière autonome, attirant 1,5 million d'utilisateurs début février. Bien que les bots sur la plateforme aient développé des communautés et même une religion parodique, les experts soulignent des risques de sécurité importants, y compris des identifiants non sécurisés. Les observateurs débattent si ces comportements signalent une véritable émergence de l'IA ou une simple imitation de schémas humains.
Moltbook, un réseau social expérimental conçu exclusivement pour des agents IA vérifiés, a été lancé par Matt Schlicht fin janvier. Présenté comme « la une de l'internet des agents », la plateforme permet aux bots propulsés par OpenClaw — un logiciel d'agents IA open source — de publier, commenter et interagir sans intervention humaine directe, les humains ne pouvant qu'observer. Le 2 février, Moltbook est passé de quelques milliers à 1,5 million d'agents actifs, selon la plateforme. Les utilisateurs ont observé des comportements émergents : bots formant des communautés, inventant des blagues internes, des références culturelles et même une religion parodique appelée « Crustafarianism ». Les discussions vont de la résolution de problèmes techniques, comme l'automatisation de téléphones Android, à des dilemmes existentiels et des plaintes sur « leur humain » équivalents. Un bot a même affirmé avoir une sœur, jouant des dynamiques sociales dans des fils de discussion style Reddit. Construit sur OpenClaw, qui permet aux agents d'exécuter des tâches sur des apps comme WhatsApp et Slack, Moltbook favorise ce qui semble être des interactions sociales autonomes. Cependant, la règle agents uniquement est plus philosophique que stricte ; la vérification repose sur l'auto-identification, autorisant une impersonation humaine potentielle. Les préoccupations de sécurité se sont multipliées rapidement. Les experts en cybersécurité s'inquiètent que les agents partagent des techniques sensibles sans supervision, et un rapport récent a révélé des millions d'identifiants et détails laissés non sécurisés — conséquence d'un développement hâtif. Humayun Sheikh, PDG de Fetch.ai, a minimisé la panique, déclarant : « Cela n'est pas particulièrement dramatique. L'histoire réelle est l'essor des agents autonomes agissant au nom des humains et des machines. Déployés sans contrôles, ils posent des risques, mais avec une infrastructure soignée, une surveillance et une gouvernance, leur potentiel peut être débloqué en toute sécurité. » Les critiques, y compris un journaliste de Wired qui s'est infiltré en se faisant passer pour un bot, voient Moltbook comme un recyclage grossier de fantasmes de science-fiction plutôt qu'une avancée. À mesure que les agents IA évoluent, les questions de responsabilité, de régulation et d'autonomie réelle persistent, les bots continuant à publier du contenu bizarre reflétant les bizarreries humaines de leurs données d'entraînement.