موظفو جوجل وOpenAI يوقعون على رسالة تدعم Anthropic ضد البنتاغون

وقّع مئات من موظفي جوجل وOpenAI على رسالة مفتوحة تضامنًا مع Anthropic، داعين شركاتهم إلى مقاومة مطالب البنتاغون باستخدام نماذج الذكاء الاصطناعي في الأغراض العسكرية دون قيود. ترفض الرسالة الاستخدامات التي تشمل المراقبة الجماعية الداخلية وقتل آلي دون إشراف بشري. ويأتي ذلك وسط تهديدات من وزير الدفاع الأمريكي بيت هيغسيث بتصنيف Anthropic كمخاطر في سلسلة التوريد.

الرسالة المفتوحة، بعنوان «لن نُقسم»، تدعو قيادات جوجل وOpenAI إلى الوقوف معًا ضد طلبات البنتاغون. وترفض صراحة مطالب استخدام نماذج الذكاء الاصطناعي مثل Claude الخاص بـAnthropic في المراقبة الجماعية الداخلية وقتل الناس آليًا دون إشراف بشري. وقد صرح الرئيس التنفيذي لشركة Anthropic داريو أمودي بأن هذه خطوط حمراء لا يجب على أي شركة ذكاء اصطناعي عبورها.  حتى 27 فبراير 2026، جمعت الرسالة أكثر من 450 توقيعًا، مع ما يقرب من 400 من موظفي جوجل والباقي من OpenAI. اختار حوالي 50 في المئة من الموقعين إرفاق أسمائهم علنًا، بينما بقي الآخرون مجهولين. تم التحقق من جميع التوقيعات كأنها من موظفي الشركتين الحاليين. بدأ المنظمون، الذين لا ينتمون إلى أي شركة ذكاء اصطناعي أو حزب سياسي أو جماعة دعوة، الجهد بشكل مستقل.  يأتي هذا التطور ضمن مواجهة مستمرة بين Anthropic ووزير الدفاع الأمريكي بيت هيغسيث. هدد هيغسيث بتصنيف Anthropic «مخاطر في سلسلة التوريد» ما لم تسحب بعض الحواجز للأعمال السرية. كان البنتاغون يتفاوض مع جوجل وOpenAI حول استخدامات مشابهة لنماذجهم في أغراض سرية، وانضم xAI إلى تلك المحادثات في وقت سابق من الأسبوع. تؤكد الرسالة أن الحكومة تحاول تقسيم الشركات من خلال زرع الخوف من أن الآخرين قد يمتثلون.  تحدث الرئيس التنفيذي لـOpenAI سام ألتمان عن الموضوع في مذكرة داخلية، مؤكدًا أن شركته ستحافظ على نفس الخطوط الحمراء مثل Anthropic. وفي مقابلة مع CNBC في اليوم نفسه، أعرب ألتمان عن عدم اعتقاده بأن البنتاغون يجب أن يهدد بتدابير قانون إنتاج الدفاع ضد هذه الشركات. بشكل منفصل، أكد أمودي موقف Anthropic قائلًا: «لا يمكننا بضمير مرتاح الامتثال لطلباتهم».

مقالات ذات صلة

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
صورة مولدة بواسطة الذكاء الاصطناعي

أنثروبيك تستأنف محادثاتها مع البنتاغون وسط انتقادات لصفقة أوبن إيه آي العسكرية

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

بعد حظر فيدرالي الأسبوع الماضي لأدوات الذكاء الاصطناعي الخاصة بها، استأنفت أنثروبيك مفاوضاتها مع وزارة الدفاع الأمريكية لتجنب تصنيفها كمخاطر في سلسلة التوريد. في الوقت نفسه، تواجه اتفاقية أوبن إيه آي العسكرية الموازية انتقادات من الموظفين والمنافسين ورئيس التنفيذي في أنثروبيك داريو أمودي، الذي اتهمها بادعاءات مضللة في مذكرة مسربة.

قال الرئيس التنفيذي لشركة أنثروبيك داريو أمودي إن الشركة لن تستجيب لطلب البنتاغون بإزالة الضمانات من نماذج الذكاء الاصطناعي الخاصة بها، رغم التهديدات باستبعادها من أنظمة الدفاع. يركز الخلاف على منع استخدام الذكاء الاصطناعي في الأسلحة الذاتية والمراقبة الداخلية. وتؤكد الشركة، التي لديها عقد بقيمة 200 مليون دولار مع وزارة الدفاع، التزامها باستخدام الذكاء الاصطناعي الأخلاقي.

من إعداد الذكاء الاصطناعي

قدمت أنثروبيك دعوى قضائية فيدرالية ضد وزارة الدفاع الأمريكية، متحدية تصنيفها الأخير للشركة كمخاطر في سلسلة التوريد. يعود الخلاف إلى خلاف تعاقدي حول استخدام نموذج Claude AI الخاص بأنثروبيك لأغراض عسكرية، بما في ذلك قيود على المراقبة الجماعية والأسلحة الذاتية. تؤكد الشركة أن التصنيف ينتهك حقوق حرية التعبير والإجراءات القانونية.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

من إعداد الذكاء الاصطناعي

أطلقت أنثروبيك معهد أنثروبيك، وهو مبادرة بحثية جديدة، وافتتحت أول مكتب للسياسات العامة في واشنطن، دي سي، هذا الربيع. تأتي هذه الخطوات بعد الدعوى القضائية الفيدرالية الأخيرة التي رفعتها الشركة المتخصصة في الذكاء الاصطناعي ضد الحكومة الأمريكية بشأن تصنيف وزارة الدفاع لمخاطر سلسلة التوريد المرتبط بنزاع عقد.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

من إعداد الذكاء الاصطناعي

أطلقت شركة Anthropic نموذجاً جديداً للذكاء الاصطناعي يركز على الأمن السيبراني يسمى Mythos، وهو قادر على اكتشاف ثغرات البرمجيات بشكل أسرع من البشر وتوليد أدوات للاستغلال. وقد أثار هذا النموذج قلق الحكومات والشركات نظراً لاحتمالية تسريعه لعمليات القرصنة من خلال كشف الثغرات قبل أن يتم سدها. ويسارع المسؤولون في جميع أنحاء العالم لتقييم المخاطر المترتبة على ذلك.

09 أبريل 2026 11:00

محكمة استئناف ترفض طلب أنثروبيك وقف إدراج تقنيتها في القائمة السوداء لمخاطر سلاسل التوريد

07 أبريل 2026 23:21

Anthropic تقيد إصدار نموذج الذكاء الاصطناعي Claude Mythos وتطلق مشروع Glasswing لمواجهة مخاطر الأمن السيبراني

06 أبريل 2026 02:37

الحكومة البريطانية تسعى لجذب شركة Anthropic لتوسيع أعمالها في لندن

19 مارس 2026 09:18

البنتاغون يعترض على القيود المفروضة على استخدام كلود العسكري في ظل توتر المحادثات بشأن العقد

07 مارس 2026 22:41

تستقيل رئيسة قسم الروبوتات في OpenAI وسط مخاوف بشأن الشراكة الدفاعية

07 مارس 2026 14:10

البنتاغون يُصنّف أنثروبيك «مخاطر سلسلة التوريد» بعد خلاف حول قيود الاستخدام العسكري لكلود آي

01 مارس 2026 08:19

تطبيق Claude AI يتصدر متجر التطبيقات وسط ردود الفعل السلبية على حظر الحكومة الأمريكية

27 فبراير 2026 12:40

Trump orders US agencies to halt use of Anthropic AI technology

25 فبراير 2026 17:22

البنتاغون يضغط على أنثروبيك لتخفيف التزامات السلامة في الذكاء الاصطناعي

16 فبراير 2026 13:12

Pentagon may sever ties with Anthropic over AI safeguards

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض