Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
صورة مولدة بواسطة الذكاء الاصطناعي

البنتاغون يضغط على أنثروبيك لتخفيف التزامات السلامة في الذكاء الاصطناعي

صورة مولدة بواسطة الذكاء الاصطناعي

هدد وزير الدفاع الأمريكي بيت هيغسيث أنثروبيك بعقوبات شديدة ما لم تمنح الشركة الجيش وصولاً غير مقيد إلى نموذج الذكاء الاصطناعي كلود. جاء الإنذار خلال اجتماع مع الرئيس التنفيذي داريو أمودي في واشنطن يوم الثلاثاء، تزامناً مع إعلان أنثروبيك عن تخفيف سياسة التوسع المسؤول. ينتقل التغيير من آليات أمان صارمة إلى تقييمات مخاطر أكثر مرونة وسط ضغوط تنافسية.

في 25 فبراير 2026، استدعى وزير الدفاع الأمريكي بيت هيغسيث الرئيس التنفيذي لأنثروبيك داريو أمودي إلى واشنطن لمناقشة سياسات استخدام الذكاء الاصطناعي للشركة. طالب هيغسيث بأن تسمح أنثروبيك بنموذج كلود للاستخدام في جميع التطبيقات العسكرية القانونية، بما في ذلك مجالات حساسة محتملة مثل المراقبة الجماعية والمهام الفتاكة دون إشراف بشري مباشر. عبرت أنثروبيك عن مخاوف بشأن موثوقية نماذج الذكاء الاصطناعي الحالية لهذه الاستخدامات، مقترحة بدلاً من ذلك تطبيق سياسات الاستخدام القياسية على عقود الحكومة مع حظر تطبيقات مثل الأسلحة الذاتية أو المراقبة الداخلية دون تدخل بشري. حدد هيغسيث مهلة نهائية يوم الجمعة 27 فبراير، محذراً من أن عدم الامتثال قد يؤدي إلى استدعاء قانون إنتاج الدفاع، وتصنيف أنثروبيك كمخاطر في سلسلة التوريد، واستبعادها من عقود وزارة الدفاع. تمتلك الشركة عقداً بقيمة 200 مليون دولار مع البنتاغون، وقد استخدم كلود في عمليات سرية، مثل القبض على زعيم فنزويلا نيكولاس مادورو في يناير 2026 بالتعاون مع بالانتير. في اليوم نفسه، أعلنت أنثروبيك تعديلات على سياسة التوسع المسؤول، متخلية عن التزامات صارمة بوقف تدريب النماذج ما لم تضمن السلامة مسبقاً. تتبنى السياسة المحدثة نهجاً نسبياً، مع التركيز على تقارير المخاطر وخارطة طريق السلامة الحدودية لتوفير الشفافية. استشهدت أنثروبيك بـ'مشكلة العمل الجماعي' في مشهد الذكاء الاصطناعي التنافسي، مشيرة إلى أن التوقفات الأحادية ستضر المطورين المسؤولين بينما يتقدم الآخرون دون تدابير تخفيف. قال المدير العلمي جاريد كابلان: 'شعرنا بأنه لن يساعد أحداً حقاً إذا توقفنا عن تدريب نماذج الذكاء الاصطناعي'، مشدداً على سرعة تقدم الصناعة. وصف كريس بينتر من METR التحول بأنه مفهوم لكنه حذر من تأثير 'غلي الضفدع' المحتمل، حيث قد تتآكل الإجراءات الأمنية المرنة مع الوقت. يؤكد أنثروبيك أنه يشارك في محادثات حسن نية لدعم الأمن القومي بمسؤولية. يفاوض البنتاغون أيضاً مع منافسين مثل OpenAI وGoogle وxAI لدمج تقنياتهم في الأنظمة العسكرية.

ما يقوله الناس

يعبر مستخدمو X بشكل رئيسي عن القلق والانتقاد تجاه إنذار وزير الدفاع بيت هيغسيث لأنثروبيك، داعمين ضمانات الشركة ضد استخدام الذكاء الاصطناعي في الأسلحة الذاتية والمراقبة الجماعية. تغريدات عالية التفاعل تفصل التهديدات باستدعاء قانون إنتاج الدفاع وتلاحظ التزامن مع تخفيف سياسة التوسع المسؤول لأنثروبيك. تشمل المشاعر الغضب من الضغط الحكومي، والشك في التزامات السلامة، وتقارير محايدة من الصحفيين.

مقالات ذات صلة

Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
صورة مولدة بواسطة الذكاء الاصطناعي

Pentagon disputes Anthropic limits on Claude’s military use as contract talks strain

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي تم التحقق من الحقائق

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

من إعداد الذكاء الاصطناعي

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

من إعداد الذكاء الاصطناعي

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

من إعداد الذكاء الاصطناعي

Anthropic announced on Wednesday the launch of Claude Managed Agents, a new product aimed at simplifying the creation and deployment of AI agents for businesses. The tool provides developers with ready-made infrastructure to build autonomous AI systems. It addresses a key barrier in automating work tasks amid the company's rapid enterprise growth.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض