تسريب الشفرة المصدرية لواجهة أوامر Claude Code الخاصة بشركة Anthropic عبر الإنترنت

تسربت الشفرة المصدرية لواجهة أوامر Claude Code الخاصة بشركة Anthropic عبر الإنترنت نتيجة خطأ في حزم أحد الإصدارات الأخيرة. وقد كشف الحادث عن أكثر من 512 ألف سطر برمجي من حوالي ألفي ملف بلغة TypeScript. ووصفت الشركة الواقعة بأنها خطأ بشري لم يترتب عليه كشف أي بيانات حساسة.

أصدرت شركة Anthropic الإصدار 2.1.88 من حزمة Claude Code على منصة npm في 31 مارس 2026، حيث تضمنت الحزمة عن غير قصد ملف خريطة مصدر (source map) أتاح الوصول إلى قاعدة البيانات البرمجية بالكامل. وكان الباحث الأمني تشاوفان شو أول من سلط الضوء على هذه المشكلة عبر منصة X، مشاركاً رابطاً لأرشيف الملفات. وسرعان ما ظهرت الشفرة في مستودع عام على GitHub، والذي تمت مشاركته (fork) عشرات الآلاف من المرات منذ ذلك الحين. وبحسب مسؤولي Anthropic، لم يتم كشف أي بيانات خاصة بالعملاء أو بيانات اعتماد، مؤكدين أن الأمر يتعلق بمسألة في حزم الإصدار نجمت عن خطأ بشري وليس خرقاً أمنياً. وذكرت الشركة: "في وقت سابق من اليوم، تضمن أحد إصدارات Claude Code بعض الشفرات المصدرية الداخلية. لم يتم الكشف عن أي بيانات حساسة للعملاء أو بيانات اعتماد. كانت هذه مسألة تتعلق بحزم الإصدار ناتجة عن خطأ بشري، وليست خرقاً أمنياً. نحن بصدد طرح تدابير لمنع تكرار ذلك". وبدأ المطورون سريعاً في تحليل الشفرة المسربة؛ فعلى سبيل المثال، قدم أحد التحليلات تفاصيل حول بنية الذاكرة في Claude Code، بما في ذلك خطوات إعادة كتابة الذاكرة والتحقق منها في الخلفية. وأشار تحليل آخر إلى وجود حوالي 40 ألف سطر لنظام أدوات يشبه الإضافات (plugins) و46 ألف سطر لنظام الاستعلام، واصفاً إياه بأداة تطوير متطورة وبمستوى إنتاجي تتجاوز كونها مجرد غلاف بسيط لواجهة برمجة التطبيقات (API). ورغم أن جهود المجتمع السابقة نجحت في الهندسة العكسية الجزئية لـ Claude Code، إلا أن هذا التسريب يوفر اكتمالاً غير مسبوق، مما يمنح المنافسين رؤى حول بنية Anthropic ونقاط الضعف المحتملة في أنظمة الحماية الخاصة بها.

مقالات ذات صلة

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
صورة مولدة بواسطة الذكاء الاصطناعي

Anthropic ends unlimited Claude access via third-party agents, requires extra payments for heavy use

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

Anthropic has restricted unlimited access to its Claude AI models through third-party agents like OpenClaw, requiring heavy users to pay extra via API keys or usage bundles starting April 4, 2026. The policy shift, announced over the weekend, addresses severe system strain from high-volume agent tools previously covered under $20 monthly subscriptions.

Anthropic has confirmed the leak of more than 512,000 lines of source code for its Claude Code tool. The disclosure reveals disabled features hinting at future developments, including a persistent background agent called Kairos. Observers examining the code also found references to stealth modes and a virtual assistant named Buddy.

من إعداد الذكاء الاصطناعي

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

من إعداد الذكاء الاصطناعي

Anthropic is temporarily doubling usage limits for its Claude AI chatbot during off-peak hours from March 13 to March 27. The promotion applies to Free, Pro, Max, and Team plan users, excluding Enterprise plans. It activates automatically across web, desktop, mobile, and integrated apps.

Anthropic's Claude AI app has hit the top spot on Apple's App Store free apps chart, overtaking ChatGPT and Gemini, fueled by public support following President Trump's federal ban on the tool over Anthropic's AI safety refusals.

من إعداد الذكاء الاصطناعي

Researchers have identified three high-risk vulnerabilities in Claude.ai. These enable an end-to-end attack chain that exfiltrates sensitive information without the user's knowledge. A legitimate Google ad could trigger data exfiltration.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض