Pentagon may sever ties with Anthropic over AI safeguards

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

The potential rift between the Pentagon and Anthropic highlights tensions in AI development for military purposes. According to reports, the U.S. Department of Defense seeks to integrate advanced AI models into warfighting applications. However, Anthropic has expressed firm reservations, emphasizing the need for strict boundaries around the use of fully autonomous weapons and extensive domestic surveillance programs.

Anthropic's position underscores its commitment to ethical AI deployment, refusing to support military applications that could cross these lines. The company, known for its Claude language model, prioritizes safety measures that the Pentagon's plans appear to challenge. No official confirmation of the severance has been issued, but the disagreement points to broader debates on AI governance in defense contexts.

This development, reported on February 16, 2026, reflects ongoing scrutiny of how AI technologies are regulated in sensitive sectors.

مقالات ذات صلة

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
صورة مولدة بواسطة الذكاء الاصطناعي

البنتاغون يضغط على أنثروبيك لتخفيف التزامات السلامة في الذكاء الاصطناعي

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

هدد وزير الدفاع الأمريكي بيت هيغسيث أنثروبيك بعقوبات شديدة ما لم تمنح الشركة الجيش وصولاً غير مقيد إلى نموذج الذكاء الاصطناعي كلود. جاء الإنذار خلال اجتماع مع الرئيس التنفيذي داريو أمودي في واشنطن يوم الثلاثاء، تزامناً مع إعلان أنثروبيك عن تخفيف سياسة التوسع المسؤول. ينتقل التغيير من آليات أمان صارمة إلى تقييمات مخاطر أكثر مرونة وسط ضغوط تنافسية.

قال الرئيس التنفيذي لشركة أنثروبيك داريو أمودي إن الشركة لن تستجيب لطلب البنتاغون بإزالة الضمانات من نماذج الذكاء الاصطناعي الخاصة بها، رغم التهديدات باستبعادها من أنظمة الدفاع. يركز الخلاف على منع استخدام الذكاء الاصطناعي في الأسلحة الذاتية والمراقبة الداخلية. وتؤكد الشركة، التي لديها عقد بقيمة 200 مليون دولار مع وزارة الدفاع، التزامها باستخدام الذكاء الاصطناعي الأخلاقي.

من إعداد الذكاء الاصطناعي

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

قامت أنثروبيك بتوسيع قدرة الذاكرة إلى المستوى المجاني لروبوت الدردشة الذكاء الاصطناعي كلود، مما يسمح للمستخدمين بالإشارة إلى المحادثات السابقة. كما أصدرت الشركة أداة لاستيراد الذكريات من روبوتات الدردشة المنافسة مثل شات جي بي تي وجيميني. تتزامن هذه التحديث مع ارتفاع شعبية كلود وسط نزاع مع وزارة الدفاع الأمريكية.

من إعداد الذكاء الاصطناعي

كشف البنتاغون الأمريكي عن منصة ذكاء اصطناعي جديدة مبنية على نموذج جيميني من جوجل. يزود هذا التطور الجيش بأدوات ذكاء اصطناعي متقدمة. لكن الردود مختلطة، مع تعبير بعضهم عن القلق إزاء تداعياتها.

قامت أنثروبيك بترقية خطة الشات بوت الذكاء الاصطناعي كلود المجانية بإضافة ميزات كانت مدفوعة سابقًا، مما يضعها كبديل خالٍ من الإعلانات لـChatGPT من OpenAI. تشمل التحسينات إنشاء الملفات، وموصلات لخدمات الطرف الثالث، ومهارات مخصصة، وسط خطط OpenAI لإدخال الإعلانات في مستواها المجاني. يأتي هذا الإجراء بعد إعلانات أنثروبيك في كأس السوبر بول التي تنتقد استراتيجية الإعلانات.

من إعداد الذكاء الاصطناعي

أدى التحديث الأخير الذي أطلقته Anthropic على منصتها CoWork إلى ردود فعل سوقية كبيرة في صناعة البرمجيات. شهد قطاع البرمجيات الأمريكي بيعًا واسع النطاق، مخسرًا أكثر من تريليون دولار من قيمته، وفقًا لـ Fortune. يبرز هذا التطور عدم اليقين لدى المستثمرين حول سير العمل الأصلي بالذكاء الاصطناعي وتأثيره على أسهم SaaS.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض