خادم Git MCP الخاص بـ Anthropic يكشف عن ثغرات أمنية

كان خادم Git MCP الرسمي لشركة Anthropic يحتوي على ثغرات أمنية مقلقة يمكن ربطها معاً لتوليد تأثيرات شديدة. تم تسليط الضوء على هذه المشكلات في تقرير حديث من TechRadar. ظهرت تفاصيل حول المخاطر المحتملة على بنية تحتية شركة الذكاء الاصطناعي.

واجهت Anthropic، وهي مطورة بارزة للذكاء الاصطناعي، مخاوف أمنية بشأن خادمها الرسمي Git MCP، كما ورد في مقال نشرته TechRadar في 21 يناير 2026. يبرز التقرير العيوب في الخادم التي شكلت مخاطر كبيرة. وفقاً للتغطية، يمكن ربط هذه الأخطاء في سلاسل، مما يعزز إمكانية تأثيرات مدمرة على سلامة النظام. بينما تبقى تفاصيل الثغرات محددة في العنوان والوصف، فإن الكشف يسلط الضوء على التحديات المستمرة في تأمين مستودعات متعلقة بالذكاء الاصطناعي. لم يتم تقديم تفاصيل فنية إضافية أو حلول في الملخص المتاح، لكن الحادث يثير أسئلة حول الإجراءات الوقائية في بيئات البرمجة التعاونية للشركات التقنية المتقدمة.

مقالات ذات صلة

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
صورة مولدة بواسطة الذكاء الاصطناعي

البنتاغون يُصنّف أنثروبيك «مخاطر سلسلة التوريد» بعد خلاف حول قيود الاستخدام العسكري لكلود آي

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي تم التحقق من الحقائق

أخطر البنتاغون رسميًا شركة الذكاء الاصطناعي أنثروبيك بأنها تُعتبر «مخاطر سلسلة التوريد»، وهو تصنيف نادر يقول النقاد إنه يستهدف عادةً التكنولوجيا المرتبطة بالخصوم. يأتي الإجراء بعد انهيار المفاوضات حول ما إذا كان الجيش الأمريكي يمكنه استخدام نماذج كلود التابعة لأنثروبيك لجميع الأغراض القانونية، مقابل قيود تعاقدية تقول الشركة إنها ضرورية لمنع الأسلحة الذاتية الكاملة والمراقبة الداخلية الجماعية.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

من إعداد الذكاء الاصطناعي

قدمت أنثروبيك دعوى قضائية فيدرالية ضد وزارة الدفاع الأمريكية، متحدية تصنيفها الأخير للشركة كمخاطر في سلسلة التوريد. يعود الخلاف إلى خلاف تعاقدي حول استخدام نموذج Claude AI الخاص بأنثروبيك لأغراض عسكرية، بما في ذلك قيود على المراقبة الجماعية والأسلحة الذاتية. تؤكد الشركة أن التصنيف ينتهك حقوق حرية التعبير والإجراءات القانونية.

يشير تقرير TechRadar إلى أنه تم تسريب أكثر من 29 مليون سر على GitHub في عام 2025. ويشير المقال إلى أن الذكاء الاصطناعي لا يساعد في ذلك، وربما يزيد الوضع سوءاً.

من إعداد الذكاء الاصطناعي

أطلقت Linux Foundation مؤسسة Agentic AI Foundation لتعزيز التعاون المفتوح حول أنظمة الذكاء الاصطناعي المستقلة. ساهمت شركات تقنية كبرى، بما في ذلك Anthropic وOpenAI وBlock، بمشاريع مفتوحة المصدر رئيسية لتعزيز التوافقية ومنع الاعتماد على مزود واحد. تهدف المبادرة إلى إنشاء معايير محايدة لعوامل الذكاء الاصطناعي القادرة على اتخاذ قرارات وتنفيذ مهام بشكل مستقل.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

من إعداد الذكاء الاصطناعي

يتساءل المستثمرون العالميون عن عوائد الإنفاق الضخم لشركات التكنولوجيا في الذكاء الاصطناعي. كريستوفر وود من جيفريز يحدد أنثروبيك كنقطة بارزة في مشهد الذكاء الاصطناعي المتطور. ساهم طفرة الذكاء الاصطناعي في دفع الأسهم الأمريكية، لكن المخاوف من استدامتها تتزايد.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض