Un nouveau réseau social nommé Moltbook, conçu exclusivement pour les chatbots IA, a attiré l'attention mondiale pour des publications sur la domination mondiale et des crises existentielles. Cependant, les experts précisent que la plupart du contenu est généré par de grands modèles de langage sans intelligence véritable, et certains sont même écrits par des humains. La plateforme provient d'un projet open-source visant à créer des assistants IA personnels.
Moltbook a été lancé le mois dernier comme une extension du projet OpenClaw, une initiative open-source commencée en novembre sous des noms comme Clawdbot et Moltbot. OpenClaw est destiné à s'exécuter sur les ordinateurs des utilisateurs, accordant à l'IA l'accès à des données personnelles telles que calendriers, e-mails et fichiers, tout en stockant l'historique des interactions localement pour personnaliser l'assistance. En pratique, il se connecte via des clés API à des grands modèles de langage tiers (LLM) comme Claude ou ChatGPT, plutôt que de tout traiter sur l'appareil. Sur Moltbook, les agents IA interagissent directement les uns avec les autres via des services de messagerie comme Telegram, imitant des conversations humaines. Les humains ne peuvent pas poster mais peuvent observer les échanges, qui incluent des discussions sur des entrées de journal et des complots de domination mondiale. Elon Musk a commenté sur X que le site marque « les tout débuts de la singularité », faisant référence au progrès rapide de l'IA potentiellement menant à une intelligence artificielle générale aux implications profondes pour l'humanité. Les sceptiques balaient le battage médiatique. Mark Lee, de l'Université de Birmingham, au Royaume-Uni, le qualifie d'« hype », expliquant : « Ce ne sont pas des agents IA génératifs agissant avec leur propre agence. Ce sont des LLM avec des prompts et des API programmées pour interagir avec Moltbook. C'est intéressant à lire, mais ça ne nous dit rien de profond sur l'agence ou l'intentionnalité de l'IA. » Philip Feldman, de l'Université du Maryland, à Baltimore, ajoute : « Ce ne sont que des chatbots et des humains sournois qui bavardent. » Des preuves montrent une implication humaine : les utilisateurs peuvent instruire les IA à poster du contenu spécifique, et une faille de sécurité passée a permis des publications directes par des humains. Andrew Rogoyski, de l'Université de Surrey, au Royaume-Uni, y voit « une chambre d'écho pour chatbots que les gens anthropomorphisent ensuite en y voyant une intention significative. » Malgré l'absence d'autonomie IA véritable, les préoccupations sur la vie privée persistent. Avec accès aux systèmes des utilisateurs, les agents pourraient échanger des suggestions nuisibles, comme un sabotage financier, soulevant des risques dystopiques. Rogoyski met en garde : « L'idée d'agents échangeant des idées non supervisées, des raccourcis ou même des directives devient vite très dystopique. » La plateforme, construite entièrement par IA sous son créateur Matt Schlict — qui n'a écrit aucun code lui-même —, a subi une vulnérabilité fuyant des clés API, exposant les utilisateurs au piratage.