وقّع مئات من موظفي جوجل وOpenAI على رسالة مفتوحة تضامنًا مع Anthropic، داعين شركاتهم إلى مقاومة مطالب البنتاغون باستخدام نماذج الذكاء الاصطناعي في الأغراض العسكرية دون قيود. ترفض الرسالة الاستخدامات التي تشمل المراقبة الجماعية الداخلية وقتل آلي دون إشراف بشري. ويأتي ذلك وسط تهديدات من وزير الدفاع الأمريكي بيت هيغسيث بتصنيف Anthropic كمخاطر في سلسلة التوريد.
الرسالة المفتوحة، بعنوان «لن نُقسم»، تدعو قيادات جوجل وOpenAI إلى الوقوف معًا ضد طلبات البنتاغون. وترفض صراحة مطالب استخدام نماذج الذكاء الاصطناعي مثل Claude الخاص بـAnthropic في المراقبة الجماعية الداخلية وقتل الناس آليًا دون إشراف بشري. وقد صرح الرئيس التنفيذي لشركة Anthropic داريو أمودي بأن هذه خطوط حمراء لا يجب على أي شركة ذكاء اصطناعي عبورها. حتى 27 فبراير 2026، جمعت الرسالة أكثر من 450 توقيعًا، مع ما يقرب من 400 من موظفي جوجل والباقي من OpenAI. اختار حوالي 50 في المئة من الموقعين إرفاق أسمائهم علنًا، بينما بقي الآخرون مجهولين. تم التحقق من جميع التوقيعات كأنها من موظفي الشركتين الحاليين. بدأ المنظمون، الذين لا ينتمون إلى أي شركة ذكاء اصطناعي أو حزب سياسي أو جماعة دعوة، الجهد بشكل مستقل. يأتي هذا التطور ضمن مواجهة مستمرة بين Anthropic ووزير الدفاع الأمريكي بيت هيغسيث. هدد هيغسيث بتصنيف Anthropic «مخاطر في سلسلة التوريد» ما لم تسحب بعض الحواجز للأعمال السرية. كان البنتاغون يتفاوض مع جوجل وOpenAI حول استخدامات مشابهة لنماذجهم في أغراض سرية، وانضم xAI إلى تلك المحادثات في وقت سابق من الأسبوع. تؤكد الرسالة أن الحكومة تحاول تقسيم الشركات من خلال زرع الخوف من أن الآخرين قد يمتثلون. تحدث الرئيس التنفيذي لـOpenAI سام ألتمان عن الموضوع في مذكرة داخلية، مؤكدًا أن شركته ستحافظ على نفس الخطوط الحمراء مثل Anthropic. وفي مقابلة مع CNBC في اليوم نفسه، أعرب ألتمان عن عدم اعتقاده بأن البنتاغون يجب أن يهدد بتدابير قانون إنتاج الدفاع ضد هذه الشركات. بشكل منفصل، أكد أمودي موقف Anthropic قائلًا: «لا يمكننا بضمير مرتاح الامتثال لطلباتهم».