بعد أن قال الرئيس التنفيذي لشركة أنثروبيك داريو أمودي في أواخر فبراير/شباط أن الشركة لن تسمح باستخدام نموذج كلود الخاص بها للمراقبة المحلية الجماعية أو الأسلحة ذاتية التشغيل بالكامل، قال مسؤولون كبار في البنتاغون إنهم لا ينوون استخدام الذكاء الاصطناعي للمراقبة المحلية ويصرون على أن الشركات الخاصة لا يمكنها وضع حدود ملزمة لكيفية استخدام الجيش الأمريكي لأدوات الذكاء الاصطناعي.
في يوليو الماضي، أعلن كبير مسؤولي الذكاء الرقمي والذكاء الاصطناعي في البنتاغون، دوغ ماتي، عن منح عقود تصل قيمتها إلى 200 مليون دولار لكل منها لأربع شركات تكنولوجية - أنثروبيك وجوجل وأوبن إيه آي وإكس إيه آي - لتوفير نماذج ذكاء اصطناعي متقدمة لمهام وزارة الدفاع. وقال ماتي إن الوزارة تعتزم تسريع اعتماد الذكاء الاصطناعي التجاري في "المهام الأساسية للمهام المشتركة" في "مجال القتال الحربي"، لكن البنتاغون لم يكشف عن تفاصيل تشغيلية تذكر، متذرعًا بالأمن القومي.
لفتت الجوائز المبهمة نسبيًا انتباهًا جديدًا في نهاية فبراير، عندما قالت أنثروبيك إنها تصر على حدود كلود في "مجموعة ضيقة من الحالات". في بيان صدر في 26 فبراير، قال أمودي إنه يؤيد بشدة استخدام الذكاء الاصطناعي للمساعدة في الدفاع عن الولايات المتحدة والديمقراطيات الأخرى، لكنه قال إن بعض التطبيقات يمكن أن تقوض القيم الديمقراطية - بما في ذلك "المراقبة المحلية الجماعية" و"الأسلحة ذاتية التشغيل بالكامل"، والتي وصفها بأنها طائرات بدون طيار القتالية ذاتية التوجيه.
رد كبار مسؤولي وزارة الدفاع بالرد على كل من الفرضية ونفوذ الشركة. ووفقًا للتقارير التي نقلتها صحيفة ذا نيشن، قال مسؤولو البنتاغون إنهم لا يعتزمون استخدام الذكاء الاصطناعي للمراقبة المحلية وأن أنظمة الأسلحة غير المأهولة ستبقى تحت إشراف بشري. لكنهم جادلوا أيضًا بأن المتعاقدين لا ينبغي أن يكونوا قادرين على فرض شروطهم الخاصة بالحريات المدنية على عمليات البنتاغون. ونُقل عن إميل مايكل، وكيل وزارة الدفاع لشؤون الأبحاث والهندسة، قوله "لن نجعل أي شركة من شركات التكنولوجيا الكبرى تقرر الحريات المدنية للأمريكيين."
وذكرت صحيفة ذا نيشن أنه خلال المفاوضات، أثار مايكل أيضًا سؤالًا منفصلًا حول ما إذا كانت أنثروبيك ستعارض استخدام كلود في مهام ذات صلة بالمجال النووي مثل الدفاع الصاروخي، وأن أمودي لم يعترض على هذا الاستخدام.
وقد سلط الخلاف الضوء على توتر أوسع بين مساعي البنتاغون لدمج الذكاء الاصطناعي التوليدي في الاستخبارات والاستهداف وتطوير الأسلحة - وبين الحواجز الوقائية التي تقول شركات الذكاء الاصطناعي إنها تحتاجها لمنع إساءة الاستخدام. أشارت "ذا نيشن" إلى جهود وزارة الدفاع القائمة منذ فترة طويلة مثل مشروع مافن، الذي بدأ باستخدام الذكاء الاصطناعي للمساعدة في تحليل فيديو الطائرات بدون طيار بحثًا عن أهداف محتملة، ومبادرة العمليات التعاونية في البيئة المحرمة (CODE) التابعة لوكالة مشاريع البحوث الدفاعية الدفاعية المتقدمة (DARPA)، والتي عملت على الاستقلالية الذاتية لمجموعات من الطائرات بدون طيار التي تعمل بموجب قواعد محددة مسبقًا.
تم تحديد السياسة الرسمية للبنتاغون بشأن الاستقلالية في توجيه وزارة الدفاع رقم 3000.09، والذي ينص على أن الأسلحة المستقلة وشبه المستقلة يجب أن تصمم بحيث يمكن للقادة والمشغلين ممارسة "مستويات مناسبة من الحكم البشري على استخدام القوة". وقد جادل المنتقدون بأن مرونة السياسة لا تزال تترك مجالاً للاستقلالية التي يمكن أن تقلل بشكل كبير من التحكم البشري في الوقت الحقيقي.
مع زيادة دمج الذكاء الاصطناعي في التخطيط والعمليات العسكرية، تؤكد المواجهة بين أنثروبيك والبنتاغون على مسألة لم يتم حلها في قلب توسع الجيش الأمريكي في مجال الذكاء الاصطناعي: كيفية التوفيق بين التبني السريع للأنظمة التجارية والمطالب بفرض قيود قابلة للتنفيذ على المراقبة المحلية وتفويض القوة المميتة للآلات.