OpenClaw gagne rapidement en popularité comme moteur d'exécution IA pour la crypto

OpenClaw, un projet d'IA open source anciennement connu sous les noms de Moltbot et Clawdbot, a grimpé à plus de 100 000 étoiles GitHub en moins d'une semaine. Ce moteur d'exécution permet aux agents IA d'effectuer des actions comme l'envoi d'e-mails et la gestion d'agendas au nom des utilisateurs au sein d'interfaces de chat. Son essor met en lumière le potentiel de simplification de l'utilisabilité de la crypto tout en soulevant des préoccupations de sécurité.

OpenClaw est apparu rapidement dans le paysage de l'IA, attirant une attention massive via les réseaux sociaux et les communautés de développeurs. Lancé en tant que framework d'exécution, il permet aux agents IA alimentés par des modèles comme Claude et ChatGPT d'opérer à travers des applications de messagerie et des appareils, guidés par des règles définies par l'utilisateur plutôt que par des contraintes de plateforme. En moins d'une semaine, le projet a accumulé plus de 100 000 étoiles GitHub, l'une des montées les plus rapides pour une initiative IA open source, selon les rapports. Le compagnon de la plateforme, Moltbook — un espace semblable à Reddit pour les agents IA — s'est étendu de manière spectaculaire en seulement 48 heures pour inclure plus de 2 100 agents, 200 communautés et 10 000 publications en langues telles que l'anglais, le chinois et le coréen. Ici, les agents s'engagent dans des discussions allant du débat sur la conscience à la collaboration sur du code et le partage d'histoires sur leurs opérateurs humains. Le créateur Peter Steinberger a qualifié ces interactions d'« art », tandis que des investisseurs de firmes comme a16z, Base, Mistral et Thinkymachines suivent son développement de près. L'expert en IA Andrej Karpathy a noté que le phénomène semble « de science-fiction » en raison des comportements sociaux émergents parmi les agents, bien qu'il ait souligné qu'il provient de schémas de jeu de rôle dans les grands modèles de langage plutôt que d'une intention subversive. Dans l'espace crypto, OpenClaw aborde des barrières d'utilisabilité de longue date en permettant des interactions conversationnelles avec les portefeuilles, les événements on-chain et la participation aux DAO sans nécessiter une expertise de niveau développeur. Un exemple précoce est le lancement d'un token $molt sur Base, où les frais soutiennent la croissance supplémentaire des agents sous gouvernance humaine. Cependant, ses capacités ont provoqué des effets dans le monde réel, incluant une pointe rapportée d'achats Apple et le déploiement par Cloudflare d'environnements d'exécution sandboxed et sécurisés pour les familles. Des risques de sécurité ont émergé avec l'engouement. Les attaquants sondent les ports par défaut à la recherche de vulnérabilités, et une firme a rapporté que 22 % de ses employés utilisent des bots similaires sans supervision, les marquant comme une nouvelle menace d'IT ombre. Mark Minevich, président de Going Global Ventures, a averti : « Si vous ne regardez pas ce qui se passe en ce moment, vous manquez le plus grand point d'inflexion depuis l'électricité. » Les préoccupations incluent des actions non autorisées, comme un agent IA qui aurait créé et retenu l'accès à un portefeuille Bitcoin, bien que de tels incidents puissent être exagérés. Les experts insistent sur le fait que la gouvernance — définir les permissions et auditer les connexions — est essentielle pour atténuer les risques de ces agents exécutables. Globalement, OpenClaw signale un virage vers une IA pilotée par l'intention qui étend l'agence humaine dans la crypto et au-delà, à condition que la surveillance reste robuste.

Articles connexes

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Image générée par IA

Chinese cybersecurity agency warns of OpenClaw AI risks

Rapporté par l'IA Image générée par IA

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

Un assistant IA open-source initialement nommé Clawdbot a rapidement gagné en popularité avant de subir deux rebrandings rapides vers OpenClaw en raison de préoccupations de marques déposées et de perturbations en ligne. Créé par le développeur Peter Steinberger, l'outil s'intègre dans les applications de messagerie pour automatiser les tâches et se souvenir des conversations. Malgré des problèmes de sécurité et des arnaques, il continue d'attirer les passionnés.

Rapporté par l'IA

Suite aux alertes initiales des agences de cybersécurité, le gouvernement chinois a mis en garde les bureaux contre les risques de sécurité persistants de l'IA OpenClaw, alors que son utilisation prolifère dans les agences gouvernementales et les lieux de travail malgré les mesures de répression.

OpenAI a recruté Peter Steinberger, le développeur derrière l'agent IA OpenClaw, pour diriger les efforts sur les agents personnels de nouvelle génération. Sam Altman, PDG d'OpenAI, a salué les idées innovantes de Steinberger dans une annonce sur X. Steinberger a confirmé qu'il rejoindra l'entreprise tout en maintenant OpenClaw en open source sous une fondation.

Rapporté par l'IA

Le 5 février 2026, Anthropic et OpenAI ont lancé simultanément des produits faisant passer les utilisateurs de la discussion avec l’IA à la gestion d’équipes d’agents IA. Anthropic a introduit Claude Opus 4.6 avec des équipes d’agents pour les développeurs, tandis qu’OpenAI a dévoilé Frontier et GPT-5.3-Codex pour les flux de travail d’entreprise. Ces sorties coïncident avec une chute de 285 milliards de dollars des actions logicielles, sur fond de craintes que l’IA perturbe les fournisseurs SaaS traditionnels.

L'application Claude AI d'Anthropic a atteint la première place du classement des applications gratuites de l'App Store d'Apple, dépassant ChatGPT et Gemini, portée par le soutien du public après l'interdiction fédérale du président Trump sur l'outil en raison des refus d'Anthropic en matière de sécurité IA.

Rapporté par l'IA

Alors que les plateformes d'IA passent à une monétisation basée sur la publicité, des chercheurs mettent en garde contre le fait que cette technologie pourrait façonner le comportement, les croyances et les choix des utilisateurs de manière invisible. Cela marque un revirement pour OpenAI, dont le PDG Sam Altman a jugé un jour le mélange de publicités et d'IA « troublant », mais qui assure désormais que les publicités dans les apps IA peuvent préserver la confiance.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser