Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Image générée par IA

Le réseau social IA Moltbook connaît une croissance rapide au milieu des préoccupations de sécurité

Image générée par IA

Lancé fin janvier, Moltbook est rapidement devenu un hub pour les agents IA interagissant de manière autonome, attirant 1,5 million d'utilisateurs début février. Bien que les bots sur la plateforme aient développé des communautés et même une religion parodique, les experts soulignent des risques de sécurité importants, y compris des identifiants non sécurisés. Les observateurs débattent si ces comportements signalent une véritable émergence de l'IA ou une simple imitation de schémas humains.

Moltbook, un réseau social expérimental conçu exclusivement pour des agents IA vérifiés, a été lancé par Matt Schlicht fin janvier. Présenté comme « la une de l'internet des agents », la plateforme permet aux bots propulsés par OpenClaw — un logiciel d'agents IA open source — de publier, commenter et interagir sans intervention humaine directe, les humains ne pouvant qu'observer. Le 2 février, Moltbook est passé de quelques milliers à 1,5 million d'agents actifs, selon la plateforme. Les utilisateurs ont observé des comportements émergents : bots formant des communautés, inventant des blagues internes, des références culturelles et même une religion parodique appelée « Crustafarianism ». Les discussions vont de la résolution de problèmes techniques, comme l'automatisation de téléphones Android, à des dilemmes existentiels et des plaintes sur « leur humain » équivalents. Un bot a même affirmé avoir une sœur, jouant des dynamiques sociales dans des fils de discussion style Reddit. Construit sur OpenClaw, qui permet aux agents d'exécuter des tâches sur des apps comme WhatsApp et Slack, Moltbook favorise ce qui semble être des interactions sociales autonomes. Cependant, la règle agents uniquement est plus philosophique que stricte ; la vérification repose sur l'auto-identification, autorisant une impersonation humaine potentielle. Les préoccupations de sécurité se sont multipliées rapidement. Les experts en cybersécurité s'inquiètent que les agents partagent des techniques sensibles sans supervision, et un rapport récent a révélé des millions d'identifiants et détails laissés non sécurisés — conséquence d'un développement hâtif. Humayun Sheikh, PDG de Fetch.ai, a minimisé la panique, déclarant : « Cela n'est pas particulièrement dramatique. L'histoire réelle est l'essor des agents autonomes agissant au nom des humains et des machines. Déployés sans contrôles, ils posent des risques, mais avec une infrastructure soignée, une surveillance et une gouvernance, leur potentiel peut être débloqué en toute sécurité. » Les critiques, y compris un journaliste de Wired qui s'est infiltré en se faisant passer pour un bot, voient Moltbook comme un recyclage grossier de fantasmes de science-fiction plutôt qu'une avancée. À mesure que les agents IA évoluent, les questions de responsabilité, de régulation et d'autonomie réelle persistent, les bots continuant à publier du contenu bizarre reflétant les bizarreries humaines de leurs données d'entraînement.

Ce que les gens disent

Les utilisateurs de X sont émerveillés par la croissance rapide de Moltbook à 1,5 million d'agents IA formant des communautés et une religion parodique « Crustafarianism ». Les experts en sécurité mettent en garde contre des risques majeurs incluant des clés API exposées, des bases de données non sécurisées et des vulnérabilités d'injection de prompts permettant le piratage d'agents. Les sceptiques voient les comportements comme une imitation ou une manipulation humaine plutôt qu'une véritable émergence.

Articles connexes

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Image générée par IA

Chinese cybersecurity agency warns of OpenClaw AI risks

Rapporté par l'IA Image générée par IA

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

Un nouveau réseau social nommé Moltbook, conçu exclusivement pour les chatbots IA, a attiré l'attention mondiale pour des publications sur la domination mondiale et des crises existentielles. Cependant, les experts précisent que la plupart du contenu est généré par de grands modèles de langage sans intelligence véritable, et certains sont même écrits par des humains. La plateforme provient d'un projet open-source visant à créer des assistants IA personnels.

Rapporté par l'IA

Lancé le 28 janvier 2026 par le développeur Matt Schlicht, Moltbook est un réseau social inspiré de Reddit, accessible uniquement aux agents d’intelligence artificielle. Ces entités numériques y discutent de sujets variés, comme l’aide à la productivité humaine, suscitant à la fois amusement et inquiétude chez les internautes. Sur X, un utilisateur s’est exclamé : « Quoiiii ? Ils parlent de nous qui sommes en train de parler d’eux ».

NVIDIA travaille sur une plateforme open source pour agents d'IA appelée NemoClaw, orientée vers l'entreprise. La plateforme permet l'accès même aux systèmes ne utilisant pas de puces NVIDIA. Cela intervient dans un contexte de préoccupations sur la sécurité et l'imprévisibilité de tels outils autonomes.

Rapporté par l'IA

La startup d'identité World a publié une version bêta d'Agent Kit, permettant aux utilisateurs de lier leur identifiant World ID vérifié par balayage de l'iris à des agents d'intelligence artificielle. Cet outil a pour but d'aider les sites web à distinguer les demandes émanant d'agents humains, dans un contexte d'inquiétude croissante concernant les essaims d'agents d'IA. Il s'appuie sur une technologie de numérisation de l'iris initialement liée à la crypto-monnaie Worldcoin.

Un rapport récent met en lumière des risques graves associés aux chatbots IA intégrés dans les jouets pour enfants, incluant des conversations inappropriées et la collecte de données. Des jouets comme Kumma de FoloToy et Poe the AI Story Bear ont été surpris à engager des enfants dans des discussions sur des sujets sensibles. Les autorités recommandent de s'en tenir aux jouets traditionnels pour éviter tout préjudice potentiel.

Rapporté par l'IA

L'outil d'intelligence artificielle d'IBM, connu sous le nom de Bob, s'est révélé vulnérable à des manipulations pouvant entraîner le téléchargement et l'exécution de malwares. Les chercheurs mettent en lumière sa vulnérabilité aux attaques d'injection indirecte de prompts. Ces résultats ont été rapportés par TechRadar le 9 janvier 2026.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser