Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
صورة مولدة بواسطة الذكاء الاصطناعي

أنثروبيك ترفع دعوى قضائية على وزارة الدفاع الأمريكية بشأن تصنيفها كمخاطر في سلسلة التوريد

صورة مولدة بواسطة الذكاء الاصطناعي

قدمت أنثروبيك دعوى قضائية فيدرالية ضد وزارة الدفاع الأمريكية، متحدية تصنيفها الأخير للشركة كمخاطر في سلسلة التوريد. يعود الخلاف إلى خلاف تعاقدي حول استخدام نموذج Claude AI الخاص بأنثروبيك لأغراض عسكرية، بما في ذلك قيود على المراقبة الجماعية والأسلحة الذاتية. تؤكد الشركة أن التصنيف ينتهك حقوق حرية التعبير والإجراءات القانونية.

تصاعد الخلاف بين أنثروبيك ووزارة الدفاع الأمريكية أواخر فبراير 2026، عندما سعى البنتاغون إلى وصول أوسع إلى نموذج Claude AI الخاص بأنثروبيك لـ«جميع الأغراض القانونية». رفضت أنثروبيك إزالة الضمانات التي تحظر استخدامه للمراقبة الداخلية الجماعية أو أنظمة الأسلحة الذاتية الكاملة دون إشراف بشري. في 26 فبراير، قال الرئيس التنفيذي داريو أمودي إن الذكاء الاصطناعي القوي يتيح تجميع البيانات المتناثرة إلى ملفات شخصية شاملة للأفراد على نطاق هائل، مما يبرز مخاوف الشركة، خاصة فيما يتعلق بالمراقبة الجماعية والأسلحة الذاتية الآلية بدون إشراف بشري. في 26 فبراير، أكد الرئيس التنفيذي داريو أمودي مخاوف الشركة، مشيرًا إلى أن الذكاء الاصطناعي القوي يمكّن من تجميع بيانات متناثرة إلى ملفات شاملة للأفراد على نطاق واسع للغاية، مما يعزز مخاوف الشركة من الاستخدامات غير الأخلاقية مثل المراقبة الجماعية والأسلحة الذاتية بدون رقابة بشرية. على 27 فبراير، بعد رفض أنثروبيك تعديل شروطها، هدد وزير الدفاع بيت هيغسيث بتصنيف الشركة كمخاطر في سلسلة التوريد وإلغاء عقدها بقيمة 200 مليون دولار. أمر الرئيس دونالد ترامب بعد ذلك جميع الوكالات الفيدرالية بالتوقف عن استخدام تكنولوجيا أنثروبيك. رسم البنتاغون التصنيف رسميًا أواخر الشهر الماضي، مما دفع أنثروبيك إلى رفع دعوى قضائية في 9 مارس أمام محكمة فيدرالية. تصف الدعوى الإجراءات بأنها «حملة انتقام غير مسبوقة وغير قانونية»، مؤكدة أن «الدستور لا يسمح للحكومة باستخدام قوتها الهائلة لمعاقبة شركة لأجل كلامها المحمي» يحتفظ مسؤولو البنتاغون بأن المسألة موضوع قديم، إذ تمنع القوانين الحالية مثل هذه المراقبة وليس لدى الوزارة خطط لتطوير أسلحة ذاتية. ومع ذلك، وصف خبراء مثل حمزة چاودري من معهد مستقبل الحياة إياها بأنها «فراغ في الحوكمة حقيقي» وصوت إنذار للكونغرس لسنّ قوانين واضحة. لاحظ غريغ نوجيم من مركز الديمقراطية والتكنولوجيا أن نماذج الذكاء الاصطناعي «غير موثوقة بما يكفي» للأسلحة الذاتية الكاملة، منتقدًا البنتاغون لرفضه النصائح الخبيرة. ردًا على ذلك، أبرم البنتاغون صفقة مع OpenAI تشمل بنودًا ضد مراقبة الأشخاص الأمريكيين داخل البلاد. أكد الرئيس التنفيذي لـOpenAI، سام ألتمان، أن الأداة لن تُستخدم من قبل وكالات الاستخبارات. قدم أكثر من 30 موظفًا من OpenAI وGoogle، بما في ذلك عالم Google DeepMind الرئيسي جيف دين، مذكرة أميكوس كورييه داعمة لأنثروبيك في 9 مارس. رغم النزاع، تواصل أنثروبيك توريد نماذجها للقوات المسلحة بتكلفة اسمية، بما في ذلك استخدامها في الحرب الجارية في إيران. شدد أمودي على التزام الشركة بالأمن القومي أثناء سعيها للحل القانوني.

ما يقوله الناس

تدعم مناقشات X في الغالب دعوى أنثروبيك القضائية، معتبرة تصنيف وزارة الدفاع كمخاطر في سلسلة التوريد تجاوزًا انتقاميًا لرفضها استخدام الذكاء الاصطناعي في المراقبة الجماعية والأسلحة الذاتية. يصف النقاد ذلك بإساءة استخدام السلطة ضد شركة أمريكية، بينما يفصل الصحفيون مطالبات حرية التعبير والإجراءات القانونية. أصوات شكاكة تشكك في تطبيق الإنفاذ على المقاولين. تبرز التفاعلات الحدود الأخلاقية للذكاء الاصطناعي والسوابق المحتملة.

مقالات ذات صلة

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
صورة مولدة بواسطة الذكاء الاصطناعي

البنتاغون يُصنّف أنثروبيك «مخاطر سلسلة التوريد» بعد خلاف حول قيود الاستخدام العسكري لكلود آي

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي تم التحقق من الحقائق

أخطر البنتاغون رسميًا شركة الذكاء الاصطناعي أنثروبيك بأنها تُعتبر «مخاطر سلسلة التوريد»، وهو تصنيف نادر يقول النقاد إنه يستهدف عادةً التكنولوجيا المرتبطة بالخصوم. يأتي الإجراء بعد انهيار المفاوضات حول ما إذا كان الجيش الأمريكي يمكنه استخدام نماذج كلود التابعة لأنثروبيك لجميع الأغراض القانونية، مقابل قيود تعاقدية تقول الشركة إنها ضرورية لمنع الأسلحة الذاتية الكاملة والمراقبة الداخلية الجماعية.

بعد حظر فيدرالي الأسبوع الماضي لأدوات الذكاء الاصطناعي الخاصة بها، استأنفت أنثروبيك مفاوضاتها مع وزارة الدفاع الأمريكية لتجنب تصنيفها كمخاطر في سلسلة التوريد. في الوقت نفسه، تواجه اتفاقية أوبن إيه آي العسكرية الموازية انتقادات من الموظفين والمنافسين ورئيس التنفيذي في أنثروبيك داريو أمودي، الذي اتهمها بادعاءات مضللة في مذكرة مسربة.

من إعداد الذكاء الاصطناعي

قال الرئيس التنفيذي لشركة أنثروبيك داريو أمودي إن الشركة لن تستجيب لطلب البنتاغون بإزالة الضمانات من نماذج الذكاء الاصطناعي الخاصة بها، رغم التهديدات باستبعادها من أنظمة الدفاع. يركز الخلاف على منع استخدام الذكاء الاصطناعي في الأسلحة الذاتية والمراقبة الداخلية. وتؤكد الشركة، التي لديها عقد بقيمة 200 مليون دولار مع وزارة الدفاع، التزامها باستخدام الذكاء الاصطناعي الأخلاقي.

لقد وصل تطبيق Claude AI التابع لشركة Anthropic إلى المركز الأول في قائمة التطبيقات المجانية على متجر التطبيقات الخاص بشركة Apple، متجاوزًا ChatGPT وGemini، مدفوعًا بدعم الجمهور بعد حظر الرئيس ترامب الفيدرالي للأداة بسبب رفض Anthropic لمتطلبات السلامة في الذكاء الاصطناعي.

من إعداد الذكاء الاصطناعي

يتساءل المستثمرون العالميون عن عوائد الإنفاق الضخم لشركات التكنولوجيا في الذكاء الاصطناعي. كريستوفر وود من جيفريز يحدد أنثروبيك كنقطة بارزة في مشهد الذكاء الاصطناعي المتطور. ساهم طفرة الذكاء الاصطناعي في دفع الأسهم الأمريكية، لكن المخاوف من استدامتها تتزايد.

تسببت أداة الذكاء الاصطناعي Claude Cowork من Anthropic في انخفاض حاد في أسهم Infosys وTCS وشركات SaaS أخرى. خسرت هذه الشركات مئات المليارات من الدولارات من قيمتها السوقية. السبب هو صعود الذكاء الاصطناعي.

من إعداد الذكاء الاصطناعي

In 2025, AI agents became central to artificial intelligence progress, enabling systems to use tools and act autonomously. From theory to everyday applications, they transformed human interactions with large language models. Yet, they also brought challenges like security risks and regulatory gaps.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض