محكمة استئناف ترفض طلب أنثروبيك وقف إدراج تقنيتها في القائمة السوداء لمخاطر سلاسل التوريد

في أحدث تطورات قضية مخاطر سلاسل التوريد المتعلقة بشركة أنثروبيك، رفضت محكمة استئناف فيدرالية أمريكية في 9 أبريل طلب الطوارئ الذي قدمته أنثروبيك لوقف قرار إدارة ترامب بإدراج تقنيتها للذكاء الاصطناعي في القائمة السوداء. وقد عجلت المحكمة بموعد المرافعات الشفوية ليكون في 19 مايو، لكنها قضت بأن موازنة المصالح ترجح كفة الحكومة، مما يمثل انتكاسة بعد أمر قضائي سابق من محكمة أدنى درجة.

رفضت محكمة الاستئناف الأمريكية لدائرة مقاطعة كولومبيا وقف تصنيف إدارة ترامب لشركة أنثروبيك كخطر على سلاسل التوريد المتعلقة بالأمن القومي. وقد أقرت هيئة مكونة من ثلاثة قضاة عينهم جمهوريون، بمن فيهم القاضيان المعينان من قبل ترامب غريغوري كاتساس ونيومي راو، باحتمالية وقوع ضرر لا يمكن إصلاحه على أنثروبيك - مثل الخسائر المالية ومزاعم الانتقام بسبب خطاب محمي بموجب التعديل الأول للدستور - لكنها وجدت أدلة غير كافية على ترهيب حرية التعبير ورجحت مصالح الحكومة في ظل النزاع العسكري.

ينبع إدراج الشركة في القائمة السوداء من رفض أنثروبيك السماح باستخدام نماذج الذكاء الاصطناعي الخاصة بها (Claude) في الحروب المستقلة والمراقبة الجماعية للأمريكيين. وقد وجه الرئيس ترامب الوكالات الفيدرالية بالتوقف عن استخدام هذه التقنية، كما حظر وزير الدفاع بيت هيغسيث على المتعاقدين العسكريين التعامل مع الشركة. ووصف القائم بأعمال النائب العام تود بلانش القرار بأنه 'انتصار ساحق للجاهزية العسكرية'، مؤكداً على السلطة الرئاسية على وزارة الحرب (وزارة الدفاع سابقاً).

يأتي هذا بعد أمر قضائي أولي أصدرته قاضية المحكمة الجزئية الأمريكية ريتا لين في 27 مارس في كاليفورنيا، والذي منع التصنيف الأولي الصادر في 4 مارس باعتباره إجراءً تعسفياً وانتقاماً من ممارسة حرية التعبير؛ وتستأنف الإدارة الحكم أمام الدائرة التاسعة. وأعربت أنثروبيك عن ثقتها في أحكام المحاكم المستقبلية التي ستعتبر القائمة السوداء غير قانونية، وأكدت مجدداً التزامها بالذكاء الاصطناعي الآمن. وحذرت رابطة صناعة الكمبيوتر والاتصالات من أن الثغرات الإجرائية في مثل هذه التصنيفات قد تضر بالابتكار الأمريكي.

جزء من سلسلة 'قضية مخاطر سلاسل التوريد المتعلقة بشركة أنثروبيك'.

مقالات ذات صلة

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
صورة مولدة بواسطة الذكاء الاصطناعي

أنثروبيك ترفع دعوى قضائية على وزارة الدفاع الأمريكية بشأن تصنيفها كمخاطر في سلسلة التوريد

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

قدمت أنثروبيك دعوى قضائية فيدرالية ضد وزارة الدفاع الأمريكية، متحدية تصنيفها الأخير للشركة كمخاطر في سلسلة التوريد. يعود الخلاف إلى خلاف تعاقدي حول استخدام نموذج Claude AI الخاص بأنثروبيك لأغراض عسكرية، بما في ذلك قيود على المراقبة الجماعية والأسلحة الذاتية. تؤكد الشركة أن التصنيف ينتهك حقوق حرية التعبير والإجراءات القانونية.

أصدر قاضٍ فيدرالي في سان فرانسيسكو أمراً قضائياً أولياً في 27 مارس 2026، يوقف بموجبه قرار إدارة ترامب بتصنيف شركة الذكاء الاصطناعي Anthropic كخطر على سلسلة التوريد العسكرية، وهو تصنيف تم تطبيقه قبل ثلاثة أسابيع وسط خلافات حول قيود الشركة على نماذج Claude للذكاء الاصطناعي لاستخدامات عسكرية مثل الأسلحة ذاتية التشغيل.

من إعداد الذكاء الاصطناعي تم التحقق من الحقائق

أخطر البنتاغون رسميًا شركة الذكاء الاصطناعي أنثروبيك بأنها تُعتبر «مخاطر سلسلة التوريد»، وهو تصنيف نادر يقول النقاد إنه يستهدف عادةً التكنولوجيا المرتبطة بالخصوم. يأتي الإجراء بعد انهيار المفاوضات حول ما إذا كان الجيش الأمريكي يمكنه استخدام نماذج كلود التابعة لأنثروبيك لجميع الأغراض القانونية، مقابل قيود تعاقدية تقول الشركة إنها ضرورية لمنع الأسلحة الذاتية الكاملة والمراقبة الداخلية الجماعية.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

من إعداد الذكاء الاصطناعي

وقّع مئات من موظفي جوجل وOpenAI على رسالة مفتوحة تضامنًا مع Anthropic، داعين شركاتهم إلى مقاومة مطالب البنتاغون باستخدام نماذج الذكاء الاصطناعي في الأغراض العسكرية دون قيود. ترفض الرسالة الاستخدامات التي تشمل المراقبة الجماعية الداخلية وقتل آلي دون إشراف بشري. ويأتي ذلك وسط تهديدات من وزير الدفاع الأمريكي بيت هيغسيث بتصنيف Anthropic كمخاطر في سلسلة التوريد.

In the wake of Anthropic's unveiling of its powerful Claude Mythos AI—capable of detecting and exploiting software vulnerabilities—the US Treasury Secretary has convened top bank executives to highlight escalating AI-driven cyber threats. The move underscores growing concerns as the AI is restricted to a tech coalition via Project Glasswing.

من إعداد الذكاء الاصطناعي

قيدت شركة Anthropic الوصول إلى نموذج الذكاء الاصطناعي Claude Mythos Preview نظرًا لقدرته الفائقة على اكتشاف الثغرات البرمجية واستغلالها، بالتزامن مع إطلاق مشروع Glasswing، وهو تحالف يضم أكثر من 45 شركة تقنية من بينها Apple وGoogle وMicrosoft، للعمل بشكل تعاوني على سد الثغرات وتعزيز الدفاعات. يأتي هذا الإعلان في أعقاب تسريبات بيانات حديثة تعرضت لها الشركة.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض