تستقيل رئيسة قسم الروبوتات في OpenAI وسط مخاوف بشأن الشراكة الدفاعية

استقالت كايتلين كالينوفسكي، رئيسة قسم الروبوتات في OpenAI، مشيرة إلى عدم اكتفاء المناقشة بشأن الحواجز الأخلاقية في الصفقة الأخيرة للشركة مع وزارة الدفاع. أعربت عن مخاوفها بشأن المراقبة المحتملة والأسلحة الذاتية في منشور على إكس. أقرت OpenAI بمغادرتها وأكدت التزاماتها ضد المراقبة الداخلية وأنظمة الأسلحة الذاتية القاتلة.

أعلنت كايتلين كالينوفسكي استقالتها من OpenAI على إكس، حيث شغلت منصب رئيسة قسم الروبوتات منذ انضمامها إلى الشركة في أواخر 2024 بعد عملها في ميتا. في منشورها، انتقدت سرعة شراكة OpenAI مع وزارة الدفاع، مشيرة إلى أن «مراقبة الأمريكيين دون رقابة قضائية والاستقلالية القاتلة دون تفويض بشري هما خطوط تستحقان مناقشة أكثر مما حصل». وأضافت في رد أن «الإعلان تم الإسراع به دون تحديد الحواجز»، واصفة إياه بأنه «مخاوف حاكمية في المقام الأول»؟n?nأكدت OpenAI الاستقالة في بيان، معبرة عن فهمها لاختلاف الآراء في هذا الأمر والتزامها باستمرار الحوار مع الأطراف المعنية. شددت الشركة على أنها لا تؤيد القضايا التي أثارتها كالينوفسكي. ووفقاً للبيان، «نعتقد أن اتفاقنا مع البنتاغون يخلق مساراً عملياً لاستخدامات أمن قومي مسؤولة للذكاء الاصطناعي مع توضيح خطوطنا الحمراء: لا مراقبة داخلية ولا أسلحة ذاتية».؟n?nيأتي هذا المغادرة بعد اتفاق OpenAI مع وزارة الدفاع، وهو خطوة أثارت التدقيق بعد رفض Anthropic تخفيف ضوابط الذكاء الاصطناعي المتعلقة بالمراقبة الجماعية والأسلحة الذاتية الكاملة. أشار الرئيس التنفيذي لـOpenAI سام ألتمان إلى استعداد لتعديل الصفقة لمنع التجسس على الأمريكيين صراحة. يمثل خروج كالينوفسكي رد فعل ملحوظاً على الآثار الأخلاقية للشراكة.

مقالات ذات صلة

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
صورة مولدة بواسطة الذكاء الاصطناعي

Anthropic resumes Pentagon talks as OpenAI military deal faces backlash

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

Hundreds of employees from Google and OpenAI have signed an open letter in solidarity with Anthropic, urging their companies to resist Pentagon demands for unrestricted military use of AI models. The letter opposes uses involving domestic mass surveillance and autonomous killing without human oversight. This comes amid threats from US Defense Secretary Pete Hegseth to label Anthropic a supply chain risk.

من إعداد الذكاء الاصطناعي

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

A mass shooting in British Columbia has drawn attention to OpenAI CEO Sam Altman's push for privacy protections for AI conversations. The shooter reportedly discussed gun violence scenarios with ChatGPT months before the attack, but OpenAI did not alert authorities. Canadian officials are questioning the company's handling of the matter.

من إعداد الذكاء الاصطناعي تم التحقق من الحقائق

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

من إعداد الذكاء الاصطناعي

Florida Attorney General James Uthmeier has initiated a criminal investigation into OpenAI, examining whether the company bears liability for ChatGPT providing advice to a suspected gunman in last year's Florida State University mass shooting. The shooting killed two people and wounded six others. OpenAI maintains that its chatbot only shared publicly available information and is not responsible.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض