موظفو جوجل وOpenAI يوقعون على رسالة تدعم Anthropic ضد البنتاغون

وقّع مئات من موظفي جوجل وOpenAI على رسالة مفتوحة تضامنًا مع Anthropic، داعين شركاتهم إلى مقاومة مطالب البنتاغون باستخدام نماذج الذكاء الاصطناعي في الأغراض العسكرية دون قيود. ترفض الرسالة الاستخدامات التي تشمل المراقبة الجماعية الداخلية وقتل آلي دون إشراف بشري. ويأتي ذلك وسط تهديدات من وزير الدفاع الأمريكي بيت هيغسيث بتصنيف Anthropic كمخاطر في سلسلة التوريد.

الرسالة المفتوحة، بعنوان «لن نُقسم»، تدعو قيادات جوجل وOpenAI إلى الوقوف معًا ضد طلبات البنتاغون. وترفض صراحة مطالب استخدام نماذج الذكاء الاصطناعي مثل Claude الخاص بـAnthropic في المراقبة الجماعية الداخلية وقتل الناس آليًا دون إشراف بشري. وقد صرح الرئيس التنفيذي لشركة Anthropic داريو أمودي بأن هذه خطوط حمراء لا يجب على أي شركة ذكاء اصطناعي عبورها.  حتى 27 فبراير 2026، جمعت الرسالة أكثر من 450 توقيعًا، مع ما يقرب من 400 من موظفي جوجل والباقي من OpenAI. اختار حوالي 50 في المئة من الموقعين إرفاق أسمائهم علنًا، بينما بقي الآخرون مجهولين. تم التحقق من جميع التوقيعات كأنها من موظفي الشركتين الحاليين. بدأ المنظمون، الذين لا ينتمون إلى أي شركة ذكاء اصطناعي أو حزب سياسي أو جماعة دعوة، الجهد بشكل مستقل.  يأتي هذا التطور ضمن مواجهة مستمرة بين Anthropic ووزير الدفاع الأمريكي بيت هيغسيث. هدد هيغسيث بتصنيف Anthropic «مخاطر في سلسلة التوريد» ما لم تسحب بعض الحواجز للأعمال السرية. كان البنتاغون يتفاوض مع جوجل وOpenAI حول استخدامات مشابهة لنماذجهم في أغراض سرية، وانضم xAI إلى تلك المحادثات في وقت سابق من الأسبوع. تؤكد الرسالة أن الحكومة تحاول تقسيم الشركات من خلال زرع الخوف من أن الآخرين قد يمتثلون.  تحدث الرئيس التنفيذي لـOpenAI سام ألتمان عن الموضوع في مذكرة داخلية، مؤكدًا أن شركته ستحافظ على نفس الخطوط الحمراء مثل Anthropic. وفي مقابلة مع CNBC في اليوم نفسه، أعرب ألتمان عن عدم اعتقاده بأن البنتاغون يجب أن يهدد بتدابير قانون إنتاج الدفاع ضد هذه الشركات. بشكل منفصل، أكد أمودي موقف Anthropic قائلًا: «لا يمكننا بضمير مرتاح الامتثال لطلباتهم».

مقالات ذات صلة

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
صورة مولدة بواسطة الذكاء الاصطناعي

أنثروبيك تستأنف محادثاتها مع البنتاغون وسط انتقادات لصفقة أوبن إيه آي العسكرية

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

بعد حظر فيدرالي الأسبوع الماضي لأدوات الذكاء الاصطناعي الخاصة بها، استأنفت أنثروبيك مفاوضاتها مع وزارة الدفاع الأمريكية لتجنب تصنيفها كمخاطر في سلسلة التوريد. في الوقت نفسه، تواجه اتفاقية أوبن إيه آي العسكرية الموازية انتقادات من الموظفين والمنافسين ورئيس التنفيذي في أنثروبيك داريو أمودي، الذي اتهمها بادعاءات مضللة في مذكرة مسربة.

قال الرئيس التنفيذي لشركة أنثروبيك داريو أمودي إن الشركة لن تستجيب لطلب البنتاغون بإزالة الضمانات من نماذج الذكاء الاصطناعي الخاصة بها، رغم التهديدات باستبعادها من أنظمة الدفاع. يركز الخلاف على منع استخدام الذكاء الاصطناعي في الأسلحة الذاتية والمراقبة الداخلية. وتؤكد الشركة، التي لديها عقد بقيمة 200 مليون دولار مع وزارة الدفاع، التزامها باستخدام الذكاء الاصطناعي الأخلاقي.

من إعداد الذكاء الاصطناعي

هدد وزير الدفاع الأمريكي بيت هيغسيث أنثروبيك بعقوبات شديدة ما لم تمنح الشركة الجيش وصولاً غير مقيد إلى نموذج الذكاء الاصطناعي كلود. جاء الإنذار خلال اجتماع مع الرئيس التنفيذي داريو أمودي في واشنطن يوم الثلاثاء، تزامناً مع إعلان أنثروبيك عن تخفيف سياسة التوسع المسؤول. ينتقل التغيير من آليات أمان صارمة إلى تقييمات مخاطر أكثر مرونة وسط ضغوط تنافسية.

أعلنت أنثروبيك أن chatbot الذكاء الاصطناعي الخاص بها Claude سيظل خاليًا من الإعلانات، في تباين حاد مع قرار المنافس OpenAI الأخير بتجربة الإعلانات في ChatGPT. أطلقت الشركة حملة إعلانية في الـ Super Bowl تسخر من مساعدي الذكاء الاصطناعي الذين يقاطعون المحادثات بعروض المنتجات. هذه الخطوة تبرز التوترات المتزايدة في مشهد الذكاء الاصطناعي التنافسي.

من إعداد الذكاء الاصطناعي

يجادل تعليق في CNET بأن وصف الذكاء الاصطناعي بصفات بشرية مثل الأرواح أو الاعترافات يضلل الجمهور ويؤكل الثقة في التكنولوجيا. ويسلط الضوء على كيفية استخدام شركات مثل OpenAI وAnthropic لهذه اللغة، التي تخفي قضايا حقيقية مثل التحيز والسلامة. ويدعو المقال إلى مصطلحات أدق لتعزيز الفهم الدقيق.

In 2025, AI agents became central to artificial intelligence progress, enabling systems to use tools and act autonomously. From theory to everyday applications, they transformed human interactions with large language models. Yet, they also brought challenges like security risks and regulatory gaps.

من إعداد الذكاء الاصطناعي

أطلقت Linux Foundation مؤسسة Agentic AI Foundation لتعزيز التعاون المفتوح حول أنظمة الذكاء الاصطناعي المستقلة. ساهمت شركات تقنية كبرى، بما في ذلك Anthropic وOpenAI وBlock، بمشاريع مفتوحة المصدر رئيسية لتعزيز التوافقية ومنع الاعتماد على مزود واحد. تهدف المبادرة إلى إنشاء معايير محايدة لعوامل الذكاء الاصطناعي القادرة على اتخاذ قرارات وتنفيذ مهام بشكل مستقل.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض