أصدر قاضٍ فيدرالي في سان فرانسيسكو أمراً قضائياً أولياً في 27 مارس 2026، يوقف بموجبه قرار إدارة ترامب بتصنيف شركة الذكاء الاصطناعي Anthropic كخطر على سلسلة التوريد العسكرية، وهو تصنيف تم تطبيقه قبل ثلاثة أسابيع وسط خلافات حول قيود الشركة على نماذج Claude للذكاء الاصطناعي لاستخدامات عسكرية مثل الأسلحة ذاتية التشغيل.
عقب تصنيف البنتاغون لشركة Anthropic في 4 مارس كـ "خطر على سلسلة التوريد" -وهو قرار نتج عن فشل المفاوضات بشأن قيود تعاقدية على استخدام Claude AI في الأسلحة ذاتية التشغيل بالكامل والمراقبة الجماعية- قضت قاضية المقاطعة الأمريكية ريتا لين بأن هذا الإجراء تعسفي وغير منطقي ويعد "انتقاماً كلاسيكياً بموجب التعديل الأول للدستور". كان من شأن هذا التصنيف تقييد العقود الحكومية مع شركة الذكاء الاصطناعي التي تتخذ من وادي السيليكون مقراً لها، والتي تركز على معايير الأمان. وفي أمرها المكون من 42 صفحة، أوقفت القاضية لين القرار لحين إجراء مزيد من المراجعة. انتقد وكيل وزارة الحرب إميل مايكل الحكم عبر وسائل التواصل الاجتماعي، معتبراً أنه يحتوي على أخطاء واقعية وتم اتخاذه على عجل وسط الصراع، كما أنه يقوض دور الرئيس كقائد أعلى للقوات المسلحة، واصفاً إياه بـ "العار". وكان وزير الحرب بيت هيغسيث قد جادل سابقاً بأن الموردين لا يمكنهم إملاء شروط استخدام التكنولوجيا عسكرياً. وقد أشار الرئيس التنفيذي لشركة Anthropic داريو أمودي إلى خطط لمواجهة هذا التصنيف قانونياً. وتتمتع القاضية لين بخبرة سابقة في قضايا ذات صلة، مثل وقف تخفيضات تمويل جامعة UCLA بسبب مخاوف تتعلق بمعاداة السامية. يسلط هذا الحكم الضوء على التوترات المستمرة بين الحدود الأخلاقية لشركات الذكاء الاصطناعي ومتطلبات الأمن القومي. هذا التقرير جزء من سلسلة "جدل مخاطر سلسلة التوريد لشركة Anthropic".