موظفو جوجل وOpenAI يوقعون على رسالة تدعم Anthropic ضد البنتاغون

وقّع مئات من موظفي جوجل وOpenAI على رسالة مفتوحة تضامنًا مع Anthropic، داعين شركاتهم إلى مقاومة مطالب البنتاغون باستخدام نماذج الذكاء الاصطناعي في الأغراض العسكرية دون قيود. ترفض الرسالة الاستخدامات التي تشمل المراقبة الجماعية الداخلية وقتل آلي دون إشراف بشري. ويأتي ذلك وسط تهديدات من وزير الدفاع الأمريكي بيت هيغسيث بتصنيف Anthropic كمخاطر في سلسلة التوريد.

الرسالة المفتوحة، بعنوان «لن نُقسم»، تدعو قيادات جوجل وOpenAI إلى الوقوف معًا ضد طلبات البنتاغون. وترفض صراحة مطالب استخدام نماذج الذكاء الاصطناعي مثل Claude الخاص بـAnthropic في المراقبة الجماعية الداخلية وقتل الناس آليًا دون إشراف بشري. وقد صرح الرئيس التنفيذي لشركة Anthropic داريو أمودي بأن هذه خطوط حمراء لا يجب على أي شركة ذكاء اصطناعي عبورها.  حتى 27 فبراير 2026، جمعت الرسالة أكثر من 450 توقيعًا، مع ما يقرب من 400 من موظفي جوجل والباقي من OpenAI. اختار حوالي 50 في المئة من الموقعين إرفاق أسمائهم علنًا، بينما بقي الآخرون مجهولين. تم التحقق من جميع التوقيعات كأنها من موظفي الشركتين الحاليين. بدأ المنظمون، الذين لا ينتمون إلى أي شركة ذكاء اصطناعي أو حزب سياسي أو جماعة دعوة، الجهد بشكل مستقل.  يأتي هذا التطور ضمن مواجهة مستمرة بين Anthropic ووزير الدفاع الأمريكي بيت هيغسيث. هدد هيغسيث بتصنيف Anthropic «مخاطر في سلسلة التوريد» ما لم تسحب بعض الحواجز للأعمال السرية. كان البنتاغون يتفاوض مع جوجل وOpenAI حول استخدامات مشابهة لنماذجهم في أغراض سرية، وانضم xAI إلى تلك المحادثات في وقت سابق من الأسبوع. تؤكد الرسالة أن الحكومة تحاول تقسيم الشركات من خلال زرع الخوف من أن الآخرين قد يمتثلون.  تحدث الرئيس التنفيذي لـOpenAI سام ألتمان عن الموضوع في مذكرة داخلية، مؤكدًا أن شركته ستحافظ على نفس الخطوط الحمراء مثل Anthropic. وفي مقابلة مع CNBC في اليوم نفسه، أعرب ألتمان عن عدم اعتقاده بأن البنتاغون يجب أن يهدد بتدابير قانون إنتاج الدفاع ضد هذه الشركات. بشكل منفصل، أكد أمودي موقف Anthropic قائلًا: «لا يمكننا بضمير مرتاح الامتثال لطلباتهم».

مقالات ذات صلة

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
صورة مولدة بواسطة الذكاء الاصطناعي

Anthropic resumes Pentagon talks as OpenAI military deal faces backlash

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

من إعداد الذكاء الاصطناعي

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

من إعداد الذكاء الاصطناعي

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

من إعداد الذكاء الاصطناعي

Anthropic has released a new cyber-focused AI model called Mythos, capable of detecting software flaws faster than humans and generating exploits. The model has raised alarms among governments and companies for potentially turbocharging hacking by exposing vulnerabilities quicker than they can be patched. Officials worldwide are scrambling to assess the risks.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض