Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
AI에 의해 생성된 이미지

중국 사이버보안 기관, OpenClaw AI 위험 경고

AI에 의해 생성된 이미지

중국의 국가 사이버보안 당국은 OpenClaw AI 에이전트 소프트웨어의 보안 위험을 경고했다. 이 소프트웨어는 공격자들이 사용자 컴퓨터 시스템의 완전한 제어를 얻을 수 있게 할 수 있으며, 다운로드와 사용량이 급증하고 주요 국내 클라우드 플랫폼에서 원클릭 배포 서비스를 제공하고 있지만 기본 보안 설정이 취약하다.

OpenClaw는 자연어 지시를 통해 컴퓨터 작업을 직접 실행하도록 설계된 AI 에이전트 소프트웨어로, Clawdbot 또는 Moltbot으로도 알려져 있다. 오스트리아 프로그래머 Peter Steinberger가 개발한 이 소프트웨어는 GitHub에서 빠르게 인기를 얻었으며, 사용자들은 이를 'lobster'라고 애칭으로 부른다. 데스크톱 정리와 데이터 처리와 같은 실제 작업을 수행하도록 구축되었지만, 로컬 파일, 환경 변수, 외부 API에 대한 접근을 포함한 높은 시스템 권한이 필요하다. 중국의 국가 컴퓨터 네트워크 긴급 대응 기술팀/조정센터(CNCERT)는 공식 소셜 미디어 계정에 공지를 게시하며, OpenClaw의 기본 보안 설정이 취약해 영향을 받는 시스템이 악용될 수 있다고 강조했다. 주요 위험으로는 공격자들이 웹페이지에 숨겨진 악성 지시를 삽입해 AI 에이전트를 속여 시스템 키와 같은 민감 정보를 노출시키는 것; 소프트웨어가 사용자 명령을 잘못 해석해 이메일이나 핵심 운영 정보를 포함한 중요한 데이터를 실수로 삭제하는 것; 악성으로 확인된 일부 플러그인이 암호화 키를 훔치거나 악성코드를 설치하거나 손상된 장치를 사이버 공격 도구로 만드는 것 등이 있다. 산업정보기술부(MIIT)가 운영하는 국가 취약점 데이터베이스(NVDB)는 OpenClaw 사용자에게 6가지 '해야 할 일'과 6가지 '하지 말아야 할 일'을 발표했다. AI 에이전트 제공업체, 취약점 플랫폼 운영자, 사이버보안 기업과의 협력으로 개발된 이 지침은 전형적인 사용 사례의 위험을 다룬다. 해야 할 일로는 공식 최신 버전 사용, 인터넷 노출 최소화, 최소 필수 권한만 부여, 서드파티 스킬 마켓에 주의, 브라우저 하이재킹 방지, 패치 취약점 정기 확인 등이 있다. 하지 말아야 할 일로는 구버전이나 서드파티 미러 버전 사용, AI 에이전트 인스턴스 인터넷 노출, 배포 시 관리자 계정 활성화, 비밀번호 입력 요구 스킬 팩 설치, 검증되지 않은 웹사이트 탐색, 상세 로그 감사 기능 비활성화 등이 있다. NVDB는 또한 인터넷 접근 제한, 파일 스캔, 소프트웨어 제거 지침을 제공했다. OpenClaw에서 여러 중간 및 고위험 취약점이 공개되었으며, 악용될 경우 시스템 침해와 개인 파일, 결제 정보, API 키를 포함한 민감 데이터 도난으로 이어질 수 있다. 이 소프트웨어의 급속한 채택은 AI가 대화에서 행동으로 전환되고 있음을 나타내지만, 전문가들은 편의성과 보안을 균형 맞추기 위해 제한된 권한으로 시작해 점차 확장할 것을 강조한다. (단어 수: 248)

사람들이 말하는 것

X 토론은 중국 국가 사이버보안 기관의 OpenClaw AI 에이전트 기본 보안 취약 경고에 초점을 맞추며, 프롬프트 인젝션, 악성 플러그인, 취약점을 통해 공격자들이 전체 시스템 제어를 얻을 수 있게 한다고 지적한다. 반응들은 정부와 기업의 폭발적 채택과 동시에 은행 및 국가 기관 금지라는 아이러니를 강조하며, 사용자들은 강화 팁을 제공하고 프라이버시 우려를 표현하며 위험에도 불구하고 빠른 AI 실험을 지적한다.

관련 기사

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
AI에 의해 생성된 이미지

Moltbook AI social network sees rapid growth amid security concerns

AI에 의해 보고됨 AI에 의해 생성된 이미지

Launched in late January, Moltbook has quickly become a hub for AI agents to interact autonomously, attracting 1.5 million users by early February. While bots on the platform have developed communities and even a parody religion, experts highlight significant security risks including unsecured credentials. Observers debate whether these behaviors signal true AI emergence or mere mimicry of human patterns.

OpenClaw, an open-source AI project formerly known as Moltbot and Clawdbot, has surged to over 100,000 GitHub stars in less than a week. This execution engine enables AI agents to perform actions like sending emails and managing calendars on users' behalf within chat interfaces. Its rise highlights potential to simplify crypto usability while raising security concerns.

AI에 의해 보고됨

An open-source AI assistant originally called Clawdbot has rapidly gained popularity before undergoing two quick rebrands to OpenClaw due to trademark concerns and online disruptions. Created by developer Peter Steinberger, the tool integrates into messaging apps to automate tasks and remember conversations. Despite security issues and scams, it continues to attract enthusiasts.

Criminals have distributed fake AI extensions in the Google Chrome Web Store to target more than 300,000 users. These tools aim to steal emails, personal data, and other information. The issue highlights ongoing efforts to push surveillance software through legitimate channels.

AI에 의해 보고됨

Cybersecurity experts are increasingly alarmed by how artificial intelligence is reshaping cybercrime, with tools like deepfakes, AI phishing, and dark large language models enabling even novices to execute advanced scams. These developments pose significant risks to businesses in the coming year. Published insights from TechRadar underscore the scale and sophistication of these emerging threats.

Following IBM's recent findings on AI accelerating vulnerability exploits, a TechRadar report warns that hackers are turning to accessible AI solutions for faster attacks, often trading off quality or cost. Businesses must adapt defenses to these evolving threats.

AI에 의해 보고됨

The cURL project, a key open-source networking tool, is ending its vulnerability reward program after a flood of low-quality, AI-generated reports overwhelmed its small team. Founder Daniel Stenberg cited the need to protect maintainers' mental health amid the onslaught. The decision takes effect at the end of January 2026.

 

 

 

이 웹사이트는 쿠키를 사용합니다

사이트를 개선하기 위해 분석을 위한 쿠키를 사용합니다. 자세한 내용은 개인정보 보호 정책을 읽으세요.
거부