قاضٍ فيدرالي يوقف تصنيف البنتاغون لشركة Anthropic كـ "خطر على سلسلة التوريد"

أصدر قاضٍ فيدرالي في سان فرانسيسكو أمراً قضائياً أولياً في 27 مارس 2026، يوقف بموجبه قرار إدارة ترامب بتصنيف شركة الذكاء الاصطناعي Anthropic كخطر على سلسلة التوريد العسكرية، وهو تصنيف تم تطبيقه قبل ثلاثة أسابيع وسط خلافات حول قيود الشركة على نماذج Claude للذكاء الاصطناعي لاستخدامات عسكرية مثل الأسلحة ذاتية التشغيل.

عقب تصنيف البنتاغون لشركة Anthropic في 4 مارس كـ "خطر على سلسلة التوريد" -وهو قرار نتج عن فشل المفاوضات بشأن قيود تعاقدية على استخدام Claude AI في الأسلحة ذاتية التشغيل بالكامل والمراقبة الجماعية- قضت قاضية المقاطعة الأمريكية ريتا لين بأن هذا الإجراء تعسفي وغير منطقي ويعد "انتقاماً كلاسيكياً بموجب التعديل الأول للدستور". كان من شأن هذا التصنيف تقييد العقود الحكومية مع شركة الذكاء الاصطناعي التي تتخذ من وادي السيليكون مقراً لها، والتي تركز على معايير الأمان. وفي أمرها المكون من 42 صفحة، أوقفت القاضية لين القرار لحين إجراء مزيد من المراجعة. انتقد وكيل وزارة الحرب إميل مايكل الحكم عبر وسائل التواصل الاجتماعي، معتبراً أنه يحتوي على أخطاء واقعية وتم اتخاذه على عجل وسط الصراع، كما أنه يقوض دور الرئيس كقائد أعلى للقوات المسلحة، واصفاً إياه بـ "العار". وكان وزير الحرب بيت هيغسيث قد جادل سابقاً بأن الموردين لا يمكنهم إملاء شروط استخدام التكنولوجيا عسكرياً. وقد أشار الرئيس التنفيذي لشركة Anthropic داريو أمودي إلى خطط لمواجهة هذا التصنيف قانونياً. وتتمتع القاضية لين بخبرة سابقة في قضايا ذات صلة، مثل وقف تخفيضات تمويل جامعة UCLA بسبب مخاوف تتعلق بمعاداة السامية. يسلط هذا الحكم الضوء على التوترات المستمرة بين الحدود الأخلاقية لشركات الذكاء الاصطناعي ومتطلبات الأمن القومي. هذا التقرير جزء من سلسلة "جدل مخاطر سلسلة التوريد لشركة Anthropic".

مقالات ذات صلة

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
صورة مولدة بواسطة الذكاء الاصطناعي

البنتاغون يُصنّف أنثروبيك «مخاطر سلسلة التوريد» بعد خلاف حول قيود الاستخدام العسكري لكلود آي

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي تم التحقق من الحقائق

أخطر البنتاغون رسميًا شركة الذكاء الاصطناعي أنثروبيك بأنها تُعتبر «مخاطر سلسلة التوريد»، وهو تصنيف نادر يقول النقاد إنه يستهدف عادةً التكنولوجيا المرتبطة بالخصوم. يأتي الإجراء بعد انهيار المفاوضات حول ما إذا كان الجيش الأمريكي يمكنه استخدام نماذج كلود التابعة لأنثروبيك لجميع الأغراض القانونية، مقابل قيود تعاقدية تقول الشركة إنها ضرورية لمنع الأسلحة الذاتية الكاملة والمراقبة الداخلية الجماعية.

قدمت أنثروبيك دعوى قضائية فيدرالية ضد وزارة الدفاع الأمريكية، متحدية تصنيفها الأخير للشركة كمخاطر في سلسلة التوريد. يعود الخلاف إلى خلاف تعاقدي حول استخدام نموذج Claude AI الخاص بأنثروبيك لأغراض عسكرية، بما في ذلك قيود على المراقبة الجماعية والأسلحة الذاتية. تؤكد الشركة أن التصنيف ينتهك حقوق حرية التعبير والإجراءات القانونية.

من إعداد الذكاء الاصطناعي

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

وقّع مئات من موظفي جوجل وOpenAI على رسالة مفتوحة تضامنًا مع Anthropic، داعين شركاتهم إلى مقاومة مطالب البنتاغون باستخدام نماذج الذكاء الاصطناعي في الأغراض العسكرية دون قيود. ترفض الرسالة الاستخدامات التي تشمل المراقبة الجماعية الداخلية وقتل آلي دون إشراف بشري. ويأتي ذلك وسط تهديدات من وزير الدفاع الأمريكي بيت هيغسيث بتصنيف Anthropic كمخاطر في سلسلة التوريد.

من إعداد الذكاء الاصطناعي

أطلقت أنثروبيك معهد أنثروبيك، وهو مبادرة بحثية جديدة، وافتتحت أول مكتب للسياسات العامة في واشنطن، دي سي، هذا الربيع. تأتي هذه الخطوات بعد الدعوى القضائية الفيدرالية الأخيرة التي رفعتها الشركة المتخصصة في الذكاء الاصطناعي ضد الحكومة الأمريكية بشأن تصنيف وزارة الدفاع لمخاطر سلسلة التوريد المرتبط بنزاع عقد.

فشلت xAI التابعة لإيلون ماسك في طلبها للحصول على حظر أولي لمنع مشروع قانون الجمعية الكاليفورنية 2013، الذي يطالب شركات الذكاء الاصطناعي بالكشف عن تفاصيل بيانات التدريب. حكم القاضي الضريحي الأمريكي جيسوس بيرنال بأن xAI فشلت في إثبات أن القانون يكشف أسراراً تجارية أو يسبب ضرراً لا يمكن إصلاحه. يجب على الشركة الآن الامتثال للقانون السارٍ منذ يناير، بينما تستمر الدعوى القضائية.

من إعداد الذكاء الاصطناعي

The Trump administration has released a National AI Legislative Framework to unify federal AI rules, address national security concerns, and counter Beijing's growing dominance in the sector. It argues that state laws should not govern areas better suited to the federal government or contradict US strategy for global AI leadership. The White House looks forward to working with Congress to turn it into legislation.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض