Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Image générée par IA

Chinese cybersecurity agency warns of OpenClaw AI risks

Image générée par IA

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

OpenClaw is an AI agent software designed to execute computer tasks directly through natural language instructions, also known as Clawdbot or Moltbot. Developed by Austrian programmer Peter Steinberger, the software has quickly gained popularity on GitHub, with users nicknaming it 'lobster'. It is built to perform real-world operations, such as organizing desktops and processing data, but requires high system permissions, including access to local files, environment variables, and external APIs.

China's National Computer Network Emergency Response Technical Team/Coordination Center (CNCERT) posted a notice on its official social media account, highlighting that OpenClaw's default security configuration is weak, making affected systems vulnerable to exploitation. Key risks include attackers embedding hidden malicious instructions in web pages to trick the AI agent into revealing sensitive information, such as system keys; the software potentially misinterpreting user commands and accidentally deleting important data, including emails or core operational information; and some plugins identified as malicious, which could steal encryption keys, install malware, or turn compromised devices into cyberattack tools.

The Ministry of Industry and Information Technology (MIIT)-run National Vulnerability Database (NVDB) issued six 'dos' and six 'don'ts' for OpenClaw users. Developed in collaboration with AI agent providers, vulnerability platform operators, and cybersecurity firms, the guidelines address risks in typical use cases. Dos include using the official latest version, minimizing internet exposure, granting only minimum necessary permissions, exercising caution with the third-party skill market, guarding against browser hijacking, and regularly checking for patch vulnerabilities. Don'ts include using outdated or third-party mirror versions, exposing AI agent instances to the internet, enabling administrator accounts during deployment, installing skill packs that require entering passwords, browsing unverified websites, and disabling detailed log auditing functions.

The NVDB also provided instructions on restricting internet access, scanning files, and uninstalling the software. Several medium- and high-severity vulnerabilities have been publicly disclosed in OpenClaw, which, if exploited, could lead to system compromise and theft of sensitive data, including personal files, payment information, and API keys. The software's rapid adoption signals AI's shift from conversation to action, but experts stress starting with limited permissions and gradually expanding access to balance convenience with security.

(Word count: 248)

Ce que les gens disent

X discussions focus on China's national cybersecurity agency's warnings about OpenClaw AI agent's weak default security, enabling attackers to gain full system control through prompt injection, malicious plugins, and vulnerabilities. Reactions highlight the irony of explosive adoption by governments and firms alongside bans in banks and state agencies, with users offering hardening tips, expressing privacy fears, and noting rapid AI experimentation despite risks.

Articles connexes

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Image générée par IA

Le réseau social IA Moltbook connaît une croissance rapide au milieu des préoccupations de sécurité

Rapporté par l'IA Image générée par IA

Lancé fin janvier, Moltbook est rapidement devenu un hub pour les agents IA interagissant de manière autonome, attirant 1,5 million d'utilisateurs début février. Bien que les bots sur la plateforme aient développé des communautés et même une religion parodique, les experts soulignent des risques de sécurité importants, y compris des identifiants non sécurisés. Les observateurs débattent si ces comportements signalent une véritable émergence de l'IA ou une simple imitation de schémas humains.

OpenClaw, un projet d'IA open source anciennement connu sous les noms de Moltbot et Clawdbot, a grimpé à plus de 100 000 étoiles GitHub en moins d'une semaine. Ce moteur d'exécution permet aux agents IA d'effectuer des actions comme l'envoi d'e-mails et la gestion d'agendas au nom des utilisateurs au sein d'interfaces de chat. Son essor met en lumière le potentiel de simplification de l'utilisabilité de la crypto tout en soulevant des préoccupations de sécurité.

Rapporté par l'IA

Un assistant IA open-source initialement nommé Clawdbot a rapidement gagné en popularité avant de subir deux rebrandings rapides vers OpenClaw en raison de préoccupations de marques déposées et de perturbations en ligne. Créé par le développeur Peter Steinberger, l'outil s'intègre dans les applications de messagerie pour automatiser les tâches et se souvenir des conversations. Malgré des problèmes de sécurité et des arnaques, il continue d'attirer les passionnés.

Des criminels ont distribué de fausses extensions IA dans le Google Chrome Web Store pour cibler plus de 300 000 utilisateurs. Ces outils visent à voler des emails, des données personnelles et d'autres informations. Le problème met en lumière les efforts continus pour promouvoir des logiciels de surveillance via des canaux légitimes.

Rapporté par l'IA

Les experts en cybersécurité sont de plus en plus alarmés par la manière dont l’intelligence artificielle redéfinit la cybercriminalité, avec des outils comme les deepfakes, le phishing IA et les grands modèles de langage sombres permettant même aux novices d’exécuter des escroqueries avancées. Ces évolutions représentent des risques majeurs pour les entreprises l’année prochaine. Des analyses publiées par TechRadar soulignent l’ampleur et la sophistication de ces menaces émergentes.

À la suite des récentes conclusions d'IBM sur l'accélération par l'IA des exploits de vulnérabilités, un rapport de TechRadar met en garde que les hackers se tournent vers des solutions IA accessibles pour des attaques plus rapides, sacrifiant souvent la qualité ou le coût. Les entreprises doivent adapter leurs défenses à ces menaces en évolution.

Rapporté par l'IA

Le projet cURL, outil réseau open source clé, met fin à son programme de récompenses pour vulnérabilités après une avalanche de rapports de faible qualité générés par IA qui a submergé son équipe réduite. Le fondateur Daniel Stenberg a invoqué la nécessité de protéger la santé mentale des mainteneurs face à l'assaut. La décision prend effet fin janvier 2026.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser