أنثروبيك لا تستطيع تلبية طلب البنتاغون بشأن ضمانات الذكاء الاصطناعي، يقول الرئيس التنفيذي

قال الرئيس التنفيذي لشركة أنثروبيك داريو أمودي إن الشركة لن تستجيب لطلب البنتاغون بإزالة الضمانات من نماذج الذكاء الاصطناعي الخاصة بها، رغم التهديدات باستبعادها من أنظمة الدفاع. يركز الخلاف على منع استخدام الذكاء الاصطناعي في الأسلحة الذاتية والمراقبة الداخلية. وتؤكد الشركة، التي لديها عقد بقيمة 200 مليون دولار مع وزارة الدفاع، التزامها باستخدام الذكاء الاصطناعي الأخلاقي.

أنثروبيك، وهي شركة ناشئة في مجال الذكاء الاصطناعي مدعومة من جوجل وأمازون، تواجه خلافاً مع وزارة الدفاع الأمريكية بشأن الضمانات في تكنولوجيا الذكاء الاصطناعي الخاصة بها، خاصة نموذجها كلود. الخميس، أعلن الرئيس التنفيذي داريو أمودي أن الشركة لا تستطيع الاستجابة لمطالب البنتاغون، والتي تشمل إزالة القيود التي تمنع استخدام الذكاء الاصطناعي في استهداف الأسلحة ذاتياً أو للمراقبة الجماعية الداخلية في الولايات المتحدة. لدى البنتاغون عقد مع أنثروبيك يصل قيمته إلى 200 مليون دولار. ومع ذلك، تصر الوزارة على التعاقد فقط مع شركات الذكاء الاصطناعي التي تسمح بـ«أي استخدام قانوني» لتكنولوجيتها، مما يتطلب إزالة مثل هذه الضمانات. أشار أمودي إلى أن استخدامات مثل المراقبة الجماعية والأسلحة الذاتية الكاملة لم تكن جزءاً من عقودهم من قبل ولا يجب تضمينها الآن. كشف عن تهديدات من الوزارة بإزالة أنثروبيك من أنظمتها، وتصنيفها كمخاطر في سلسلة التوريد، واستخدام قانون إنتاج الدفاع لفرض التغييرات. «بغض النظر عن ذلك، هذه التهديدات لا تغير موقفنا: لا نستطيع بضمير مرتاح الاستجابة لطلبها»، قال أمودي. ردًا على ذلك، نشر المتحدث باسم البنتاغون شون بارنيل على إكس أن الوزارة ليس لديها اهتمام باستخدام الذكاء الاصطناعي للمراقبة الجماعية للأمريكيين أو تطوير أسلحة ذاتية دون تدخل بشري. «هذا ما نطلبه: السماح للبنتاغون باستخدام نموذج أنثروبيك لجميع الأغراض القانونية»، قال بارنيل. لم يرد البنتاغون فوراً على طلبات التعليق بشأن بيان أنثروبيك. أعرب أمودي عن أمله في أن تعيد الوزارة النظر، نظراً لقيمة تكنولوجيا أنثروبيك للقوات المسلحة، وعرض تسهيل انتقال سلس إذا لزم الأمر. أضاف متحدث باسم أنثروبيك أن الشركة جاهزة لمواصلة المناقشات وملتزمة باستمرارية العمليات للوزارة وقوات القتال الأمريكية.

مقالات ذات صلة

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
صورة مولدة بواسطة الذكاء الاصطناعي

البنتاغون يضغط على أنثروبيك لتخفيف التزامات السلامة في الذكاء الاصطناعي

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

هدد وزير الدفاع الأمريكي بيت هيغسيث أنثروبيك بعقوبات شديدة ما لم تمنح الشركة الجيش وصولاً غير مقيد إلى نموذج الذكاء الاصطناعي كلود. جاء الإنذار خلال اجتماع مع الرئيس التنفيذي داريو أمودي في واشنطن يوم الثلاثاء، تزامناً مع إعلان أنثروبيك عن تخفيف سياسة التوسع المسؤول. ينتقل التغيير من آليات أمان صارمة إلى تقييمات مخاطر أكثر مرونة وسط ضغوط تنافسية.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

من إعداد الذكاء الاصطناعي

وقّع مئات من موظفي جوجل وOpenAI على رسالة مفتوحة تضامنًا مع Anthropic، داعين شركاتهم إلى مقاومة مطالب البنتاغون باستخدام نماذج الذكاء الاصطناعي في الأغراض العسكرية دون قيود. ترفض الرسالة الاستخدامات التي تشمل المراقبة الجماعية الداخلية وقتل آلي دون إشراف بشري. ويأتي ذلك وسط تهديدات من وزير الدفاع الأمريكي بيت هيغسيث بتصنيف Anthropic كمخاطر في سلسلة التوريد.

أدى التحديث الأخير الذي أطلقته Anthropic على منصتها CoWork إلى ردود فعل سوقية كبيرة في صناعة البرمجيات. شهد قطاع البرمجيات الأمريكي بيعًا واسع النطاق، مخسرًا أكثر من تريليون دولار من قيمته، وفقًا لـ Fortune. يبرز هذا التطور عدم اليقين لدى المستثمرين حول سير العمل الأصلي بالذكاء الاصطناعي وتأثيره على أسهم SaaS.

من إعداد الذكاء الاصطناعي

يجادل تعليق في CNET بأن وصف الذكاء الاصطناعي بصفات بشرية مثل الأرواح أو الاعترافات يضلل الجمهور ويؤكل الثقة في التكنولوجيا. ويسلط الضوء على كيفية استخدام شركات مثل OpenAI وAnthropic لهذه اللغة، التي تخفي قضايا حقيقية مثل التحيز والسلامة. ويدعو المقال إلى مصطلحات أدق لتعزيز الفهم الدقيق.

In 2025, AI agents became central to artificial intelligence progress, enabling systems to use tools and act autonomously. From theory to everyday applications, they transformed human interactions with large language models. Yet, they also brought challenges like security risks and regulatory gaps.

من إعداد الذكاء الاصطناعي

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض