Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
صورة مولدة بواسطة الذكاء الاصطناعي

البنتاغون يعترض على القيود المفروضة على استخدام كلود العسكري في ظل توتر المحادثات بشأن العقد

صورة مولدة بواسطة الذكاء الاصطناعي
تم التحقق من الحقائق

بعد أن قال الرئيس التنفيذي لشركة أنثروبيك داريو أمودي في أواخر فبراير/شباط أن الشركة لن تسمح باستخدام نموذج كلود الخاص بها للمراقبة المحلية الجماعية أو الأسلحة ذاتية التشغيل بالكامل، قال مسؤولون كبار في البنتاغون إنهم لا ينوون استخدام الذكاء الاصطناعي للمراقبة المحلية ويصرون على أن الشركات الخاصة لا يمكنها وضع حدود ملزمة لكيفية استخدام الجيش الأمريكي لأدوات الذكاء الاصطناعي.

في يوليو الماضي، أعلن كبير مسؤولي الذكاء الرقمي والذكاء الاصطناعي في البنتاغون، دوغ ماتي، عن منح عقود تصل قيمتها إلى 200 مليون دولار لكل منها لأربع شركات تكنولوجية - أنثروبيك وجوجل وأوبن إيه آي وإكس إيه آي - لتوفير نماذج ذكاء اصطناعي متقدمة لمهام وزارة الدفاع. وقال ماتي إن الوزارة تعتزم تسريع اعتماد الذكاء الاصطناعي التجاري في "المهام الأساسية للمهام المشتركة" في "مجال القتال الحربي"، لكن البنتاغون لم يكشف عن تفاصيل تشغيلية تذكر، متذرعًا بالأمن القومي.

لفتت الجوائز المبهمة نسبيًا انتباهًا جديدًا في نهاية فبراير، عندما قالت أنثروبيك إنها تصر على حدود كلود في "مجموعة ضيقة من الحالات". في بيان صدر في 26 فبراير، قال أمودي إنه يؤيد بشدة استخدام الذكاء الاصطناعي للمساعدة في الدفاع عن الولايات المتحدة والديمقراطيات الأخرى، لكنه قال إن بعض التطبيقات يمكن أن تقوض القيم الديمقراطية - بما في ذلك "المراقبة المحلية الجماعية" و"الأسلحة ذاتية التشغيل بالكامل"، والتي وصفها بأنها طائرات بدون طيار القتالية ذاتية التوجيه.

رد كبار مسؤولي وزارة الدفاع بالرد على كل من الفرضية ونفوذ الشركة. ووفقًا للتقارير التي نقلتها صحيفة ذا نيشن، قال مسؤولو البنتاغون إنهم لا يعتزمون استخدام الذكاء الاصطناعي للمراقبة المحلية وأن أنظمة الأسلحة غير المأهولة ستبقى تحت إشراف بشري. لكنهم جادلوا أيضًا بأن المتعاقدين لا ينبغي أن يكونوا قادرين على فرض شروطهم الخاصة بالحريات المدنية على عمليات البنتاغون. ونُقل عن إميل مايكل، وكيل وزارة الدفاع لشؤون الأبحاث والهندسة، قوله "لن نجعل أي شركة من شركات التكنولوجيا الكبرى تقرر الحريات المدنية للأمريكيين."

وذكرت صحيفة ذا نيشن أنه خلال المفاوضات، أثار مايكل أيضًا سؤالًا منفصلًا حول ما إذا كانت أنثروبيك ستعارض استخدام كلود في مهام ذات صلة بالمجال النووي مثل الدفاع الصاروخي، وأن أمودي لم يعترض على هذا الاستخدام.

وقد سلط الخلاف الضوء على توتر أوسع بين مساعي البنتاغون لدمج الذكاء الاصطناعي التوليدي في الاستخبارات والاستهداف وتطوير الأسلحة - وبين الحواجز الوقائية التي تقول شركات الذكاء الاصطناعي إنها تحتاجها لمنع إساءة الاستخدام. أشارت "ذا نيشن" إلى جهود وزارة الدفاع القائمة منذ فترة طويلة مثل مشروع مافن، الذي بدأ باستخدام الذكاء الاصطناعي للمساعدة في تحليل فيديو الطائرات بدون طيار بحثًا عن أهداف محتملة، ومبادرة العمليات التعاونية في البيئة المحرمة (CODE) التابعة لوكالة مشاريع البحوث الدفاعية الدفاعية المتقدمة (DARPA)، والتي عملت على الاستقلالية الذاتية لمجموعات من الطائرات بدون طيار التي تعمل بموجب قواعد محددة مسبقًا.

تم تحديد السياسة الرسمية للبنتاغون بشأن الاستقلالية في توجيه وزارة الدفاع رقم 3000.09، والذي ينص على أن الأسلحة المستقلة وشبه المستقلة يجب أن تصمم بحيث يمكن للقادة والمشغلين ممارسة "مستويات مناسبة من الحكم البشري على استخدام القوة". وقد جادل المنتقدون بأن مرونة السياسة لا تزال تترك مجالاً للاستقلالية التي يمكن أن تقلل بشكل كبير من التحكم البشري في الوقت الحقيقي.

مع زيادة دمج الذكاء الاصطناعي في التخطيط والعمليات العسكرية، تؤكد المواجهة بين أنثروبيك والبنتاغون على مسألة لم يتم حلها في قلب توسع الجيش الأمريكي في مجال الذكاء الاصطناعي: كيفية التوفيق بين التبني السريع للأنظمة التجارية والمطالب بفرض قيود قابلة للتنفيذ على المراقبة المحلية وتفويض القوة المميتة للآلات.

ما يقوله الناس

تكشف مناقشات X عن وجود انقسام حول الخلاف بين البنتاغون وأنثروبيك حول حدود الذكاء الاصطناعي لكلود. يشيد مؤيدو أنثروبيك بموقفهم الأخلاقي ضد المراقبة الجماعية والأسلحة ذاتية التشغيل، ويرون أن وضع البنتاغون للقائمة السوداء تجاوزاً. بينما يجادل المنتقدون بأن الشركات الخاصة لا يمكنها فرض قيود على الاستخدام العسكري وأن شروط العقد البسيطة تكفي. وتوضح المنشورات المحايدة بالتفصيل المواجهة والمواعيد النهائية والتصعيدات القانونية، على النقيض من امتثال OpenAI. تسلط الحسابات عالية التفاعل من الصحفيين والمحللين الضوء على التوترات بين الأمن القومي مقابل سلامة الذكاء الاصطناعي.

مقالات ذات صلة

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
صورة مولدة بواسطة الذكاء الاصطناعي

البنتاغون يُصنّف أنثروبيك «مخاطر سلسلة التوريد» بعد خلاف حول قيود الاستخدام العسكري لكلود آي

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي تم التحقق من الحقائق

أخطر البنتاغون رسميًا شركة الذكاء الاصطناعي أنثروبيك بأنها تُعتبر «مخاطر سلسلة التوريد»، وهو تصنيف نادر يقول النقاد إنه يستهدف عادةً التكنولوجيا المرتبطة بالخصوم. يأتي الإجراء بعد انهيار المفاوضات حول ما إذا كان الجيش الأمريكي يمكنه استخدام نماذج كلود التابعة لأنثروبيك لجميع الأغراض القانونية، مقابل قيود تعاقدية تقول الشركة إنها ضرورية لمنع الأسلحة الذاتية الكاملة والمراقبة الداخلية الجماعية.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

من إعداد الذكاء الاصطناعي

قال الرئيس التنفيذي لشركة أنثروبيك داريو أمودي إن الشركة لن تستجيب لطلب البنتاغون بإزالة الضمانات من نماذج الذكاء الاصطناعي الخاصة بها، رغم التهديدات باستبعادها من أنظمة الدفاع. يركز الخلاف على منع استخدام الذكاء الاصطناعي في الأسلحة الذاتية والمراقبة الداخلية. وتؤكد الشركة، التي لديها عقد بقيمة 200 مليون دولار مع وزارة الدفاع، التزامها باستخدام الذكاء الاصطناعي الأخلاقي.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

من إعداد الذكاء الاصطناعي

لقد وصل تطبيق Claude AI التابع لشركة Anthropic إلى المركز الأول في قائمة التطبيقات المجانية على متجر التطبيقات الخاص بشركة Apple، متجاوزًا ChatGPT وGemini، مدفوعًا بدعم الجمهور بعد حظر الرئيس ترامب الفيدرالي للأداة بسبب رفض Anthropic لمتطلبات السلامة في الذكاء الاصطناعي.

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

من إعداد الذكاء الاصطناعي

يجادل تعليق في CNET بأن وصف الذكاء الاصطناعي بصفات بشرية مثل الأرواح أو الاعترافات يضلل الجمهور ويؤكل الثقة في التكنولوجيا. ويسلط الضوء على كيفية استخدام شركات مثل OpenAI وAnthropic لهذه اللغة، التي تخفي قضايا حقيقية مثل التحيز والسلامة. ويدعو المقال إلى مصطلحات أدق لتعزيز الفهم الدقيق.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض