أنثروبيك لا تستطيع تلبية طلب البنتاغون بشأن ضمانات الذكاء الاصطناعي، يقول الرئيس التنفيذي

قال الرئيس التنفيذي لشركة أنثروبيك داريو أمودي إن الشركة لن تستجيب لطلب البنتاغون بإزالة الضمانات من نماذج الذكاء الاصطناعي الخاصة بها، رغم التهديدات باستبعادها من أنظمة الدفاع. يركز الخلاف على منع استخدام الذكاء الاصطناعي في الأسلحة الذاتية والمراقبة الداخلية. وتؤكد الشركة، التي لديها عقد بقيمة 200 مليون دولار مع وزارة الدفاع، التزامها باستخدام الذكاء الاصطناعي الأخلاقي.

أنثروبيك، وهي شركة ناشئة في مجال الذكاء الاصطناعي مدعومة من جوجل وأمازون، تواجه خلافاً مع وزارة الدفاع الأمريكية بشأن الضمانات في تكنولوجيا الذكاء الاصطناعي الخاصة بها، خاصة نموذجها كلود. الخميس، أعلن الرئيس التنفيذي داريو أمودي أن الشركة لا تستطيع الاستجابة لمطالب البنتاغون، والتي تشمل إزالة القيود التي تمنع استخدام الذكاء الاصطناعي في استهداف الأسلحة ذاتياً أو للمراقبة الجماعية الداخلية في الولايات المتحدة. لدى البنتاغون عقد مع أنثروبيك يصل قيمته إلى 200 مليون دولار. ومع ذلك، تصر الوزارة على التعاقد فقط مع شركات الذكاء الاصطناعي التي تسمح بـ«أي استخدام قانوني» لتكنولوجيتها، مما يتطلب إزالة مثل هذه الضمانات. أشار أمودي إلى أن استخدامات مثل المراقبة الجماعية والأسلحة الذاتية الكاملة لم تكن جزءاً من عقودهم من قبل ولا يجب تضمينها الآن. كشف عن تهديدات من الوزارة بإزالة أنثروبيك من أنظمتها، وتصنيفها كمخاطر في سلسلة التوريد، واستخدام قانون إنتاج الدفاع لفرض التغييرات. «بغض النظر عن ذلك، هذه التهديدات لا تغير موقفنا: لا نستطيع بضمير مرتاح الاستجابة لطلبها»، قال أمودي. ردًا على ذلك، نشر المتحدث باسم البنتاغون شون بارنيل على إكس أن الوزارة ليس لديها اهتمام باستخدام الذكاء الاصطناعي للمراقبة الجماعية للأمريكيين أو تطوير أسلحة ذاتية دون تدخل بشري. «هذا ما نطلبه: السماح للبنتاغون باستخدام نموذج أنثروبيك لجميع الأغراض القانونية»، قال بارنيل. لم يرد البنتاغون فوراً على طلبات التعليق بشأن بيان أنثروبيك. أعرب أمودي عن أمله في أن تعيد الوزارة النظر، نظراً لقيمة تكنولوجيا أنثروبيك للقوات المسلحة، وعرض تسهيل انتقال سلس إذا لزم الأمر. أضاف متحدث باسم أنثروبيك أن الشركة جاهزة لمواصلة المناقشات وملتزمة باستمرارية العمليات للوزارة وقوات القتال الأمريكية.

مقالات ذات صلة

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
صورة مولدة بواسطة الذكاء الاصطناعي

Pentagon pressures Anthropic to weaken AI safety commitments

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

US Defense Secretary Pete Hegseth has threatened Anthropic with severe penalties unless the company grants the military unrestricted access to its Claude AI model. The ultimatum came during a meeting with CEO Dario Amodei in Washington on Tuesday, coinciding with Anthropic's announcement to relax its Responsible Scaling Policy. The changes shift from strict safety tripwires to more flexible risk assessments amid competitive pressures.

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

من إعداد الذكاء الاصطناعي تم التحقق من الحقائق

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

من إعداد الذكاء الاصطناعي

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

من إعداد الذكاء الاصطناعي

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض