Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Bild genererad av AI

Chinese cybersecurity agency warns of OpenClaw AI risks

Bild genererad av AI

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

OpenClaw is an AI agent software designed to execute computer tasks directly through natural language instructions, also known as Clawdbot or Moltbot. Developed by Austrian programmer Peter Steinberger, the software has quickly gained popularity on GitHub, with users nicknaming it 'lobster'. It is built to perform real-world operations, such as organizing desktops and processing data, but requires high system permissions, including access to local files, environment variables, and external APIs.

China's National Computer Network Emergency Response Technical Team/Coordination Center (CNCERT) posted a notice on its official social media account, highlighting that OpenClaw's default security configuration is weak, making affected systems vulnerable to exploitation. Key risks include attackers embedding hidden malicious instructions in web pages to trick the AI agent into revealing sensitive information, such as system keys; the software potentially misinterpreting user commands and accidentally deleting important data, including emails or core operational information; and some plugins identified as malicious, which could steal encryption keys, install malware, or turn compromised devices into cyberattack tools.

The Ministry of Industry and Information Technology (MIIT)-run National Vulnerability Database (NVDB) issued six 'dos' and six 'don'ts' for OpenClaw users. Developed in collaboration with AI agent providers, vulnerability platform operators, and cybersecurity firms, the guidelines address risks in typical use cases. Dos include using the official latest version, minimizing internet exposure, granting only minimum necessary permissions, exercising caution with the third-party skill market, guarding against browser hijacking, and regularly checking for patch vulnerabilities. Don'ts include using outdated or third-party mirror versions, exposing AI agent instances to the internet, enabling administrator accounts during deployment, installing skill packs that require entering passwords, browsing unverified websites, and disabling detailed log auditing functions.

The NVDB also provided instructions on restricting internet access, scanning files, and uninstalling the software. Several medium- and high-severity vulnerabilities have been publicly disclosed in OpenClaw, which, if exploited, could lead to system compromise and theft of sensitive data, including personal files, payment information, and API keys. The software's rapid adoption signals AI's shift from conversation to action, but experts stress starting with limited permissions and gradually expanding access to balance convenience with security.

(Word count: 248)

Vad folk säger

X discussions focus on China's national cybersecurity agency's warnings about OpenClaw AI agent's weak default security, enabling attackers to gain full system control through prompt injection, malicious plugins, and vulnerabilities. Reactions highlight the irony of explosive adoption by governments and firms alongside bans in banks and state agencies, with users offering hardening tips, expressing privacy fears, and noting rapid AI experimentation despite risks.

Relaterade artiklar

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Bild genererad av AI

Moltbook AI-socialnätverk växer snabbt mitt i säkerhetsoro

Rapporterad av AI Bild genererad av AI

Lanserades sent i januari och har Moltbook snabbt blivit ett nav för AI-agenter att interagera autonomt, och lockat 1,5 miljoner användare i början av februari. Medan botar på plattformen utvecklat communities och till och med en parodireligion framhåller experter betydande säkerhetsrisker inklusive oskyddade uppgifter. Bedömare debatterar om dessa beteenden signalerar äkta AI-uppkomst eller blott efterapning av mänskliga mönster.

OpenClaw, an open-source AI project formerly known as Moltbot and Clawdbot, has surged to over 100,000 GitHub stars in less than a week. This execution engine enables AI agents to perform actions like sending emails and managing calendars on users' behalf within chat interfaces. Its rise highlights potential to simplify crypto usability while raising security concerns.

Rapporterad av AI

En öppen källkods-AI-assistent som ursprungligen hette Clawdbot har snabbt blivit populär innan den genomgick två snabba ombrandingar till OpenClaw på grund av varumärkesproblem och störningar online. Skapad av utvecklaren Peter Steinberger integreras verktyget i meddelandeappar för att automatisera uppgifter och komma ihåg konversationer. Trots säkerhetsproblem och bedrägerier fortsätter det att locka entusiaster.

Brottslingar har distribuerat falska AI-tillägg i Google Chrome Web Store för att rikta sig mot över 300 000 användare. Dessa verktyg syftar till att stjäla e-post, personuppgifter och annan information. Frågan belyser pågående försök att sprida övervakningsprogramvara via legitima kanaler.

Rapporterad av AI

Cybersäkerhetsexperter blir alltmer oroade över hur artificiell intelligens omformar cyberbrottslighet, med verktyg som deepfakes, AI-phishing och mörka stora språkmodeller som gör det möjligt även för nybörjare att utföra avancerade bedrägerier. Dessa utvecklingar utgör betydande risker för företag kommande år. Publicerade insikter från TechRadar understryker omfattningen och sofistikeringen hos dessa nya hot.

Med anledning av IBM:s senaste fynd om AI som accelererar utnyttjandet av sårbarheter varnar en TechRadar-rapport för att hackare vänder sig till tillgängliga AI-lösningar för snabbare attacker, ofta på bekostnad av kvalitet eller kostnad. Företag måste anpassa sina försvar till dessa föränderliga hot.

Rapporterad av AI

cURL-projektet, ett nyckelverktyg för öppen källkod inom nätverk, avslutar sitt program för belöningar vid sårbarheter efter en lavin av lågkvalitativa, AI-genererade rapporter som överväldigat den lilla teamet. Grundaren Daniel Stenberg nämnde behovet av att skydda maintainerernas mentala hälsa mitt i anfallet. Beslutet träder i kraft i slutet av januari 2026.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj