Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
صورة مولدة بواسطة الذكاء الاصطناعي

البنتاغون يعترض على القيود المفروضة على استخدام كلود العسكري في ظل توتر المحادثات بشأن العقد

صورة مولدة بواسطة الذكاء الاصطناعي
تم التحقق من الحقائق

بعد أن قال الرئيس التنفيذي لشركة أنثروبيك داريو أمودي في أواخر فبراير/شباط أن الشركة لن تسمح باستخدام نموذج كلود الخاص بها للمراقبة المحلية الجماعية أو الأسلحة ذاتية التشغيل بالكامل، قال مسؤولون كبار في البنتاغون إنهم لا ينوون استخدام الذكاء الاصطناعي للمراقبة المحلية ويصرون على أن الشركات الخاصة لا يمكنها وضع حدود ملزمة لكيفية استخدام الجيش الأمريكي لأدوات الذكاء الاصطناعي.

في يوليو الماضي، أعلن كبير مسؤولي الذكاء الرقمي والذكاء الاصطناعي في البنتاغون، دوغ ماتي، عن منح عقود تصل قيمتها إلى 200 مليون دولار لكل منها لأربع شركات تكنولوجية - أنثروبيك وجوجل وأوبن إيه آي وإكس إيه آي - لتوفير نماذج ذكاء اصطناعي متقدمة لمهام وزارة الدفاع. وقال ماتي إن الوزارة تعتزم تسريع اعتماد الذكاء الاصطناعي التجاري في "المهام الأساسية للمهام المشتركة" في "مجال القتال الحربي"، لكن البنتاغون لم يكشف عن تفاصيل تشغيلية تذكر، متذرعًا بالأمن القومي.

لفتت الجوائز المبهمة نسبيًا انتباهًا جديدًا في نهاية فبراير، عندما قالت أنثروبيك إنها تصر على حدود كلود في "مجموعة ضيقة من الحالات". في بيان صدر في 26 فبراير، قال أمودي إنه يؤيد بشدة استخدام الذكاء الاصطناعي للمساعدة في الدفاع عن الولايات المتحدة والديمقراطيات الأخرى، لكنه قال إن بعض التطبيقات يمكن أن تقوض القيم الديمقراطية - بما في ذلك "المراقبة المحلية الجماعية" و"الأسلحة ذاتية التشغيل بالكامل"، والتي وصفها بأنها طائرات بدون طيار القتالية ذاتية التوجيه.

رد كبار مسؤولي وزارة الدفاع بالرد على كل من الفرضية ونفوذ الشركة. ووفقًا للتقارير التي نقلتها صحيفة ذا نيشن، قال مسؤولو البنتاغون إنهم لا يعتزمون استخدام الذكاء الاصطناعي للمراقبة المحلية وأن أنظمة الأسلحة غير المأهولة ستبقى تحت إشراف بشري. لكنهم جادلوا أيضًا بأن المتعاقدين لا ينبغي أن يكونوا قادرين على فرض شروطهم الخاصة بالحريات المدنية على عمليات البنتاغون. ونُقل عن إميل مايكل، وكيل وزارة الدفاع لشؤون الأبحاث والهندسة، قوله "لن نجعل أي شركة من شركات التكنولوجيا الكبرى تقرر الحريات المدنية للأمريكيين."

وذكرت صحيفة ذا نيشن أنه خلال المفاوضات، أثار مايكل أيضًا سؤالًا منفصلًا حول ما إذا كانت أنثروبيك ستعارض استخدام كلود في مهام ذات صلة بالمجال النووي مثل الدفاع الصاروخي، وأن أمودي لم يعترض على هذا الاستخدام.

وقد سلط الخلاف الضوء على توتر أوسع بين مساعي البنتاغون لدمج الذكاء الاصطناعي التوليدي في الاستخبارات والاستهداف وتطوير الأسلحة - وبين الحواجز الوقائية التي تقول شركات الذكاء الاصطناعي إنها تحتاجها لمنع إساءة الاستخدام. أشارت "ذا نيشن" إلى جهود وزارة الدفاع القائمة منذ فترة طويلة مثل مشروع مافن، الذي بدأ باستخدام الذكاء الاصطناعي للمساعدة في تحليل فيديو الطائرات بدون طيار بحثًا عن أهداف محتملة، ومبادرة العمليات التعاونية في البيئة المحرمة (CODE) التابعة لوكالة مشاريع البحوث الدفاعية الدفاعية المتقدمة (DARPA)، والتي عملت على الاستقلالية الذاتية لمجموعات من الطائرات بدون طيار التي تعمل بموجب قواعد محددة مسبقًا.

تم تحديد السياسة الرسمية للبنتاغون بشأن الاستقلالية في توجيه وزارة الدفاع رقم 3000.09، والذي ينص على أن الأسلحة المستقلة وشبه المستقلة يجب أن تصمم بحيث يمكن للقادة والمشغلين ممارسة "مستويات مناسبة من الحكم البشري على استخدام القوة". وقد جادل المنتقدون بأن مرونة السياسة لا تزال تترك مجالاً للاستقلالية التي يمكن أن تقلل بشكل كبير من التحكم البشري في الوقت الحقيقي.

مع زيادة دمج الذكاء الاصطناعي في التخطيط والعمليات العسكرية، تؤكد المواجهة بين أنثروبيك والبنتاغون على مسألة لم يتم حلها في قلب توسع الجيش الأمريكي في مجال الذكاء الاصطناعي: كيفية التوفيق بين التبني السريع للأنظمة التجارية والمطالب بفرض قيود قابلة للتنفيذ على المراقبة المحلية وتفويض القوة المميتة للآلات.

ما يقوله الناس

تكشف مناقشات X عن وجود انقسام حول الخلاف بين البنتاغون وأنثروبيك حول حدود الذكاء الاصطناعي لكلود. يشيد مؤيدو أنثروبيك بموقفهم الأخلاقي ضد المراقبة الجماعية والأسلحة ذاتية التشغيل، ويرون أن وضع البنتاغون للقائمة السوداء تجاوزاً. بينما يجادل المنتقدون بأن الشركات الخاصة لا يمكنها فرض قيود على الاستخدام العسكري وأن شروط العقد البسيطة تكفي. وتوضح المنشورات المحايدة بالتفصيل المواجهة والمواعيد النهائية والتصعيدات القانونية، على النقيض من امتثال OpenAI. تسلط الحسابات عالية التفاعل من الصحفيين والمحللين الضوء على التوترات بين الأمن القومي مقابل سلامة الذكاء الاصطناعي.

مقالات ذات صلة

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
صورة مولدة بواسطة الذكاء الاصطناعي

Pentagon designates Anthropic a ‘supply chain risk’ after dispute over military use limits for Claude AI

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي تم التحقق من الحقائق

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

من إعداد الذكاء الاصطناعي

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

من إعداد الذكاء الاصطناعي

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

من إعداد الذكاء الاصطناعي

Following last week's unveiling that sparked global alarms, Anthropic has restricted its powerful Mythos AI—adept at finding cybersecurity vulnerabilities—to select firms under Project Glasswing, including Amazon Web Services, Apple, and Google, after an accidental leak raised national security concerns.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض