Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
صورة مولدة بواسطة الذكاء الاصطناعي

البنتاغون يضغط على أنثروبيك لتخفيف التزامات السلامة في الذكاء الاصطناعي

صورة مولدة بواسطة الذكاء الاصطناعي

هدد وزير الدفاع الأمريكي بيت هيغسيث أنثروبيك بعقوبات شديدة ما لم تمنح الشركة الجيش وصولاً غير مقيد إلى نموذج الذكاء الاصطناعي كلود. جاء الإنذار خلال اجتماع مع الرئيس التنفيذي داريو أمودي في واشنطن يوم الثلاثاء، تزامناً مع إعلان أنثروبيك عن تخفيف سياسة التوسع المسؤول. ينتقل التغيير من آليات أمان صارمة إلى تقييمات مخاطر أكثر مرونة وسط ضغوط تنافسية.

في 25 فبراير 2026، استدعى وزير الدفاع الأمريكي بيت هيغسيث الرئيس التنفيذي لأنثروبيك داريو أمودي إلى واشنطن لمناقشة سياسات استخدام الذكاء الاصطناعي للشركة. طالب هيغسيث بأن تسمح أنثروبيك بنموذج كلود للاستخدام في جميع التطبيقات العسكرية القانونية، بما في ذلك مجالات حساسة محتملة مثل المراقبة الجماعية والمهام الفتاكة دون إشراف بشري مباشر. عبرت أنثروبيك عن مخاوف بشأن موثوقية نماذج الذكاء الاصطناعي الحالية لهذه الاستخدامات، مقترحة بدلاً من ذلك تطبيق سياسات الاستخدام القياسية على عقود الحكومة مع حظر تطبيقات مثل الأسلحة الذاتية أو المراقبة الداخلية دون تدخل بشري. حدد هيغسيث مهلة نهائية يوم الجمعة 27 فبراير، محذراً من أن عدم الامتثال قد يؤدي إلى استدعاء قانون إنتاج الدفاع، وتصنيف أنثروبيك كمخاطر في سلسلة التوريد، واستبعادها من عقود وزارة الدفاع. تمتلك الشركة عقداً بقيمة 200 مليون دولار مع البنتاغون، وقد استخدم كلود في عمليات سرية، مثل القبض على زعيم فنزويلا نيكولاس مادورو في يناير 2026 بالتعاون مع بالانتير. في اليوم نفسه، أعلنت أنثروبيك تعديلات على سياسة التوسع المسؤول، متخلية عن التزامات صارمة بوقف تدريب النماذج ما لم تضمن السلامة مسبقاً. تتبنى السياسة المحدثة نهجاً نسبياً، مع التركيز على تقارير المخاطر وخارطة طريق السلامة الحدودية لتوفير الشفافية. استشهدت أنثروبيك بـ'مشكلة العمل الجماعي' في مشهد الذكاء الاصطناعي التنافسي، مشيرة إلى أن التوقفات الأحادية ستضر المطورين المسؤولين بينما يتقدم الآخرون دون تدابير تخفيف. قال المدير العلمي جاريد كابلان: 'شعرنا بأنه لن يساعد أحداً حقاً إذا توقفنا عن تدريب نماذج الذكاء الاصطناعي'، مشدداً على سرعة تقدم الصناعة. وصف كريس بينتر من METR التحول بأنه مفهوم لكنه حذر من تأثير 'غلي الضفدع' المحتمل، حيث قد تتآكل الإجراءات الأمنية المرنة مع الوقت. يؤكد أنثروبيك أنه يشارك في محادثات حسن نية لدعم الأمن القومي بمسؤولية. يفاوض البنتاغون أيضاً مع منافسين مثل OpenAI وGoogle وxAI لدمج تقنياتهم في الأنظمة العسكرية.

ما يقوله الناس

يعبر مستخدمو X بشكل رئيسي عن القلق والانتقاد تجاه إنذار وزير الدفاع بيت هيغسيث لأنثروبيك، داعمين ضمانات الشركة ضد استخدام الذكاء الاصطناعي في الأسلحة الذاتية والمراقبة الجماعية. تغريدات عالية التفاعل تفصل التهديدات باستدعاء قانون إنتاج الدفاع وتلاحظ التزامن مع تخفيف سياسة التوسع المسؤول لأنثروبيك. تشمل المشاعر الغضب من الضغط الحكومي، والشك في التزامات السلامة، وتقارير محايدة من الصحفيين.

مقالات ذات صلة

President Trump signs executive order banning Anthropic AI from federal agencies amid Pentagon dispute, illustrated with banned AI screens, Pentagon, and courthouse symbols.
صورة مولدة بواسطة الذكاء الاصطناعي

Trump orders US agencies to halt use of Anthropic AI technology

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

قال الرئيس التنفيذي لشركة أنثروبيك داريو أمودي إن الشركة لن تستجيب لطلب البنتاغون بإزالة الضمانات من نماذج الذكاء الاصطناعي الخاصة بها، رغم التهديدات باستبعادها من أنظمة الدفاع. يركز الخلاف على منع استخدام الذكاء الاصطناعي في الأسلحة الذاتية والمراقبة الداخلية. وتؤكد الشركة، التي لديها عقد بقيمة 200 مليون دولار مع وزارة الدفاع، التزامها باستخدام الذكاء الاصطناعي الأخلاقي.

من إعداد الذكاء الاصطناعي

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

قامت أنثروبيك بتوسيع قدرة الذاكرة إلى المستوى المجاني لروبوت الدردشة الذكاء الاصطناعي كلود، مما يسمح للمستخدمين بالإشارة إلى المحادثات السابقة. كما أصدرت الشركة أداة لاستيراد الذكريات من روبوتات الدردشة المنافسة مثل شات جي بي تي وجيميني. تتزامن هذه التحديث مع ارتفاع شعبية كلود وسط نزاع مع وزارة الدفاع الأمريكية.

من إعداد الذكاء الاصطناعي

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

كان خادم Git MCP الرسمي لشركة Anthropic يحتوي على ثغرات أمنية مقلقة يمكن ربطها معاً لتوليد تأثيرات شديدة. تم تسليط الضوء على هذه المشكلات في تقرير حديث من TechRadar. ظهرت تفاصيل حول المخاطر المحتملة على بنية تحتية شركة الذكاء الاصطناعي.

من إعداد الذكاء الاصطناعي

أدى التحديث الأخير الذي أطلقته Anthropic على منصتها CoWork إلى ردود فعل سوقية كبيرة في صناعة البرمجيات. شهد قطاع البرمجيات الأمريكي بيعًا واسع النطاق، مخسرًا أكثر من تريليون دولار من قيمته، وفقًا لـ Fortune. يبرز هذا التطور عدم اليقين لدى المستثمرين حول سير العمل الأصلي بالذكاء الاصطناعي وتأثيره على أسهم SaaS.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض