Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
صورة مولدة بواسطة الذكاء الاصطناعي

البنتاغون يُصنّف أنثروبيك «مخاطر سلسلة التوريد» بعد خلاف حول قيود الاستخدام العسكري لكلود آي

صورة مولدة بواسطة الذكاء الاصطناعي
تم التحقق من الحقائق

أخطر البنتاغون رسميًا شركة الذكاء الاصطناعي أنثروبيك بأنها تُعتبر «مخاطر سلسلة التوريد»، وهو تصنيف نادر يقول النقاد إنه يستهدف عادةً التكنولوجيا المرتبطة بالخصوم. يأتي الإجراء بعد انهيار المفاوضات حول ما إذا كان الجيش الأمريكي يمكنه استخدام نماذج كلود التابعة لأنثروبيك لجميع الأغراض القانونية، مقابل قيود تعاقدية تقول الشركة إنها ضرورية لمنع الأسلحة الذاتية الكاملة والمراقبة الداخلية الجماعية.

تصاعدت المفاوضات بين البنتاغون وأنثروبيك في الأسابيع الأخيرة مع سعي مسؤولي الدفاع إلى شروط تعاقدية تسمح للجيش باستخدام نماذج الذكاء الاصطناعي الخاصة بأنثروبيك لجميع الأغراض القانونية، وفقًا لتقرير The Daily Wire، وافقت أنثروبيك على الاستمرار في توفير الوصول إلى نماذجها لكنها أصرت على استثنتين اثنتين: حظر الاستخدام في أنظمة الأسلحة الذاتية الكاملة وحظر الاستخدام للمراقبة الداخلية الجماعية. ذكرت المنصة أن إدارة بايدن قبلت تلك الشروط في عقد لعام 2024، لكن إدارة ترامب تحركت لإعادة فتح القضية، وانتقد مسؤول كبير في تكنولوجيا البنتاغون، إميل مايكل - الذي حددته The Daily Wire كمساعد وزير ترامب المشرف على الخلاف - ما قال إنه قيود مدمجة في الاتفاقيات السابقة. «نظرْتُ إلى العقود وكنتُ مثل، يا إلهي. لا يمكنك استخدامها لتخطيط ضربة حركية. لا يمكنك استخدام نموذج الذكاء الاصطناعي الخاص بهم لتحريك قمر صناعي»، قال، وفقًا لـ The Daily Wire. أضاف مايكل أنه يريد «شروط خدمة» يراها متوافقة مع مهمة الوزارة، كما ذكرت The Daily Wire أيضًا أن أنثروبيك اقترحت استثناءات محدودة - مثل الاستخدام في تخطيط سرب طائرات بدون طيار أو الرد على صاروخ فرط صوتي صيني - لكن مايكل قال إن تلك الاستثناءات غير كافية. كما أثار مخاوف بشأن أن القيود السياسية قد تخلق مخاطر تشغيلية إذا قطع مزود الخدمة الوصول أثناء مهمة، انتهى الخلاف عندما قال البنتاغون إنه «أخطر قيادة أنثروبيك رسميًا بأن الشركة ومنتجاتها تُعتبر مخاطر سلسلة التوريد، فعال فورًا»، وفقًا لتقرير Associated Press يستشهد ببيان بنتاغون، قال الرئيس التنفيذي لأنثروبيك داريو أمودي إن الشركة لا تعتقد أن التصنيف قانوني الصحة وتخطط لتحديه في المحكمة، حسب تقرير AP. في بيان نشرته أنثروبيك في 5 مارس 2026، قال أمودي إن الشركة تلقت رسالة في 4 مارس تؤكد التصنيف وجادل بأن نطاق الإجراء العملي ضيق بموجب القانون المذكور، ينطبق فقط على استخدام كلود «كجزء مباشر من» عقود وزارة الحرب - وليس على جميع استخدامات العملاء، جادل وزير الدفاع بيت هيغسيث علنًا بأن الموردين لا يجب أن يتمكنوا من تقييد الاستخدام القانوني للتكنولوجيا من قبل الجيش، وهو رأي يتردد في بيان البنتاغون لـ AP بأن الجيش «لن يسمح لمورد بإدخال نفسه في سلسلة القيادة من خلال تقييد الاستخدام القانوني لقدرة حاسمة وتعريض مقاتلينا للخطر»، بشكل منفصل، ذكرت The Daily Wire أن مستشار الذكاء الاصطناعي في إدارة ترامب ديفيد ساكس انتقد ما وصفه بروابط عصر بايدن بين موظفي سياسة الذكاء الاصطناعي وأنثروبيك، وسمى مسؤولي بايدن السابقين إليزابيث كيلي وبنجامين ميركل الذين يعملون الآن في الشركة. كما ذكرت The Daily Wire أن أنثروبيك قالت إنها عينت مسؤولًا سابقًا في إدارة ترامب كريس ليدل في مجلس إدارتها، يظل التأثير القانوني والعملي الأوسع لتصنيف «مخاطر سلسلة التوريد» محل جدل. جادل محللو قانونيون ونقاد بأن السلطة المستخدمة أضيق من بعض الادعاءات العامة بشأن حظر شامل للمقاولين من أي عمل مع أنثروبيك، بينما قالت أنثروبيك إن رسالة البنتاغون تعكس تطبيقًا محدودًا مرتبطًا بعقود دفاع محددة، في تغطيتها للخلاف، قالت AP إن المواجهة تركز على إصرار أنثروبيك على عدم استخدام تكنولوجيتها للمراقبة الجماعية للأمريكيين أو الأسلحة الذاتية الكاملة - حواجز تقول الشركة إنها ضرورية حتى مع قولها إن اتخاذ القرارات التشغيلية يجب أن يبقى للجيش.

ما يقوله الناس

تكشف المناقشات على إكس عن ردود فعل متباينة على تصنيف البنتاغون لأنثروبيك كمخاطر سلسلة التوريد. يمدح المؤيدون رفض أنثروبيك السماح باستخدام كلود آي في الأسلحة الذاتية والمراقبة الجماعية، معتبرين ذلك موقفًا أخلاقيًا ضد التوسع العسكري. يجادل النقاد بأنه يقوض الأمن القومي الأمريكي وتنافسية الذكاء الاصطناعي، مما يفيد المنافسين مثل xAI وOpenAI. تنقل المنشورات المحايدة التطورات، بينما يعبر البعض عن شكوك حول دوافع الحكومة والمعارك القانونية المحتملة.

مقالات ذات صلة

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
صورة مولدة بواسطة الذكاء الاصطناعي

Anthropic sues US defense department over supply chain risk designation

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

من إعداد الذكاء الاصطناعي

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

In the latest development of the Anthropic supply chain risk controversy, a U.S. federal appeals court on April 9 denied Anthropic's emergency motion to block the Trump administration's blacklisting of its AI technology. The court expedited oral arguments for May 19 but ruled the balance of equities favors the government, marking a setback following a prior district court injunction.

من إعداد الذكاء الاصطناعي

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

The UK Department for Science, Innovation and Technology has proposed that Anthropic expand its London office and pursue a potential dual stock listing, according to a Financial Times report. This effort follows a dispute between the San Francisco-based AI company and the US Department of Defense. Officials aim to attract Anthropic amid ongoing tensions.

من إعداد الذكاء الاصطناعي

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض