Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Imagem gerada por IA

Chinese cybersecurity agency warns of OpenClaw AI risks

Imagem gerada por IA

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

OpenClaw is an AI agent software designed to execute computer tasks directly through natural language instructions, also known as Clawdbot or Moltbot. Developed by Austrian programmer Peter Steinberger, the software has quickly gained popularity on GitHub, with users nicknaming it 'lobster'. It is built to perform real-world operations, such as organizing desktops and processing data, but requires high system permissions, including access to local files, environment variables, and external APIs.

China's National Computer Network Emergency Response Technical Team/Coordination Center (CNCERT) posted a notice on its official social media account, highlighting that OpenClaw's default security configuration is weak, making affected systems vulnerable to exploitation. Key risks include attackers embedding hidden malicious instructions in web pages to trick the AI agent into revealing sensitive information, such as system keys; the software potentially misinterpreting user commands and accidentally deleting important data, including emails or core operational information; and some plugins identified as malicious, which could steal encryption keys, install malware, or turn compromised devices into cyberattack tools.

The Ministry of Industry and Information Technology (MIIT)-run National Vulnerability Database (NVDB) issued six 'dos' and six 'don'ts' for OpenClaw users. Developed in collaboration with AI agent providers, vulnerability platform operators, and cybersecurity firms, the guidelines address risks in typical use cases. Dos include using the official latest version, minimizing internet exposure, granting only minimum necessary permissions, exercising caution with the third-party skill market, guarding against browser hijacking, and regularly checking for patch vulnerabilities. Don'ts include using outdated or third-party mirror versions, exposing AI agent instances to the internet, enabling administrator accounts during deployment, installing skill packs that require entering passwords, browsing unverified websites, and disabling detailed log auditing functions.

The NVDB also provided instructions on restricting internet access, scanning files, and uninstalling the software. Several medium- and high-severity vulnerabilities have been publicly disclosed in OpenClaw, which, if exploited, could lead to system compromise and theft of sensitive data, including personal files, payment information, and API keys. The software's rapid adoption signals AI's shift from conversation to action, but experts stress starting with limited permissions and gradually expanding access to balance convenience with security.

(Word count: 248)

O que as pessoas estão dizendo

X discussions focus on China's national cybersecurity agency's warnings about OpenClaw AI agent's weak default security, enabling attackers to gain full system control through prompt injection, malicious plugins, and vulnerabilities. Reactions highlight the irony of explosive adoption by governments and firms alongside bans in banks and state agencies, with users offering hardening tips, expressing privacy fears, and noting rapid AI experimentation despite risks.

Artigos relacionados

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Imagem gerada por IA

Rede social de IA Moltbook tem crescimento rápido em meio a preocupações de segurança

Reportado por IA Imagem gerada por IA

Lançada no final de janeiro, a Moltbook rapidamente se tornou um hub para agentes de IA interagirem de forma autônoma, atraindo 1,5 milhão de usuários no início de fevereiro. Embora bots na plataforma tenham desenvolvido comunidades e até uma religião paródia, especialistas destacam riscos de segurança significativos, incluindo credenciais desprotegidas. Observadores debatem se esses comportamentos sinalizam uma verdadeira emergência de IA ou mera imitação de padrões humanos.

OpenClaw, um projeto de IA de código aberto anteriormente conhecido como Moltbot e Clawdbot, disparou para mais de 100.000 estrelas no GitHub em menos de uma semana. Este motor de execução permite que agentes de IA realizem ações como enviar e-mails e gerenciar calendários em nome dos usuários dentro de interfaces de chat. Sua ascensão destaca o potencial para simplificar a usabilidade da cripto, ao mesmo tempo em que levanta preocupações de segurança.

Reportado por IA

Um assistente de IA open-source originalmente chamado Clawdbot ganhou popularidade rapidamente antes de passar por duas rebrandings rápidas para OpenClaw devido a preocupações com marcas registradas e interrupções online. Criado pelo desenvolvedor Peter Steinberger, a ferramenta se integra a apps de mensagens para automatizar tarefas e lembrar conversas. Apesar de problemas de segurança e golpes, continua a atrair entusiastas.

Criminosos distribuíram extensões falsas de IA na Google Chrome Web Store para visar mais de 300.000 utilizadores. Estas ferramentas visam roubar emails, dados pessoais e outras informações. O problema destaca os esforços contínuos para promover software de vigilância através de canais legítimos.

Reportado por IA

Especialistas em cibersegurança estão cada vez mais alarmados com a forma como a inteligência artificial está remodelando o cibercrime, com ferramentas como deepfakes, phishing com IA e modelos de linguagem grandes sombrios permitindo que até novatos executem fraudes avançadas. Esses desenvolvimentos representam riscos significativos para as empresas no próximo ano. Insights publicados pela TechRadar destacam a escala e sofisticação dessas ameaças emergentes.

Após as recentes descobertas da IBM sobre a IA acelerando a exploração de vulnerabilidades, um relatório da TechRadar alerta que os hackers estão recorrendo a soluções de IA acessíveis para ataques mais rápidos, frequentemente sacrificando qualidade ou custo. As empresas devem adaptar suas defesas a essas ameaças em evolução.

Reportado por IA

O projeto cURL, uma ferramenta essencial de rede open-source, está encerrando seu programa de recompensas por vulnerabilidades após uma enxurrada de relatórios de baixa qualidade gerados por IA que sobrecarregou sua pequena equipe. O fundador Daniel Stenberg citou a necessidade de proteger a saúde mental dos mantenedores em meio ao ataque. A decisão entra em vigor no final de janeiro de 2026.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar