أنثروبيك تطلق معهد أبحاث ومكتب سياسات في واشنطن وسط دعوى حكومية

أطلقت أنثروبيك معهد أنثروبيك، وهو مبادرة بحثية جديدة، وافتتحت أول مكتب للسياسات العامة في واشنطن، دي سي، هذا الربيع. تأتي هذه الخطوات بعد الدعوى القضائية الفيدرالية الأخيرة التي رفعتها الشركة المتخصصة في الذكاء الاصطناعي ضد الحكومة الأمريكية بشأن تصنيف وزارة الدفاع لمخاطر سلسلة التوريد المرتبط بنزاع عقد.

بناءً على دعواها القضائية في 9 مارس التي تتحدى تصنيف وزارة الدفاع الأمريكية لمخاطر سلسلة التوريد—الناتج عن رفض أنثروبيك رفع الحمايات على ذكاء Claude الخاص بها للاستخدام العسكري—أعلنت الشركة عن توسعات في السياسات والبحوث الاستشرافية، والبحث. أنثروبيك تضاعف حجم فريق السياسات العامة ثلاث مرات وتؤسس أول مكتب لها في دي سي هذا الربيع، كما أفادت Axios. سارة هيك، الرئيسة الجديدة للشؤون الخارجية، ستقود جهود السياسات، خلفاً للمؤسس المشارك جاك كلارك، الذي ينتقل إلى رئيس الفائدة العامة الذي يشرف على معهد أنثروبيك. سيجمع المعهد ويوسع المجموعات الحالية: فريق Frontier Red Team (اختبار إجهاد الذكاء الاصطناعي)، فريق التأثيرات المجتمعية (التطبيقات في العالم الحقيقي)، وفريق البحوث الاقتصادية (تأثيرات على الوظائف والاقتصاد). يهدف إلى مشاركة رؤى حول تحديات الذكاء الاصطناعي، بما في ذلك إعادة تشكيل الاقتصاد والمخاطر الجديدة. يشمل الأعضاء المؤسسون مات بوتفينيك (سابقاً في Google DeepMind) وزوي هيتزيغ (سابقاً في OpenAI). في جلسة محكمة متصلة، سعت أنثروبيك للحصول على ضمانات ضد عقوبات إضافية من إدارة ترامب، التي رفضت. تشير مصادر إلى أمر تنفيذي محتمل جديد من البيت الأبيض يستهدف الشركة.

مقالات ذات صلة

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
صورة مولدة بواسطة الذكاء الاصطناعي

أنثروبيك ترفع دعوى قضائية على وزارة الدفاع الأمريكية بشأن تصنيفها كمخاطر في سلسلة التوريد

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

قدمت أنثروبيك دعوى قضائية فيدرالية ضد وزارة الدفاع الأمريكية، متحدية تصنيفها الأخير للشركة كمخاطر في سلسلة التوريد. يعود الخلاف إلى خلاف تعاقدي حول استخدام نموذج Claude AI الخاص بأنثروبيك لأغراض عسكرية، بما في ذلك قيود على المراقبة الجماعية والأسلحة الذاتية. تؤكد الشركة أن التصنيف ينتهك حقوق حرية التعبير والإجراءات القانونية.

بعد حظر فيدرالي الأسبوع الماضي لأدوات الذكاء الاصطناعي الخاصة بها، استأنفت أنثروبيك مفاوضاتها مع وزارة الدفاع الأمريكية لتجنب تصنيفها كمخاطر في سلسلة التوريد. في الوقت نفسه، تواجه اتفاقية أوبن إيه آي العسكرية الموازية انتقادات من الموظفين والمنافسين ورئيس التنفيذي في أنثروبيك داريو أمودي، الذي اتهمها بادعاءات مضللة في مذكرة مسربة.

من إعداد الذكاء الاصطناعي تم التحقق من الحقائق

أخطر البنتاغون رسميًا شركة الذكاء الاصطناعي أنثروبيك بأنها تُعتبر «مخاطر سلسلة التوريد»، وهو تصنيف نادر يقول النقاد إنه يستهدف عادةً التكنولوجيا المرتبطة بالخصوم. يأتي الإجراء بعد انهيار المفاوضات حول ما إذا كان الجيش الأمريكي يمكنه استخدام نماذج كلود التابعة لأنثروبيك لجميع الأغراض القانونية، مقابل قيود تعاقدية تقول الشركة إنها ضرورية لمنع الأسلحة الذاتية الكاملة والمراقبة الداخلية الجماعية.

يتساءل المستثمرون العالميون عن عوائد الإنفاق الضخم لشركات التكنولوجيا في الذكاء الاصطناعي. كريستوفر وود من جيفريز يحدد أنثروبيك كنقطة بارزة في مشهد الذكاء الاصطناعي المتطور. ساهم طفرة الذكاء الاصطناعي في دفع الأسهم الأمريكية، لكن المخاوف من استدامتها تتزايد.

من إعداد الذكاء الاصطناعي

أدى التحديث الأخير الذي أطلقته Anthropic على منصتها CoWork إلى ردود فعل سوقية كبيرة في صناعة البرمجيات. شهد قطاع البرمجيات الأمريكي بيعًا واسع النطاق، مخسرًا أكثر من تريليون دولار من قيمته، وفقًا لـ Fortune. يبرز هذا التطور عدم اليقين لدى المستثمرين حول سير العمل الأصلي بالذكاء الاصطناعي وتأثيره على أسهم SaaS.

لقد وصل تطبيق Claude AI التابع لشركة Anthropic إلى المركز الأول في قائمة التطبيقات المجانية على متجر التطبيقات الخاص بشركة Apple، متجاوزًا ChatGPT وGemini، مدفوعًا بدعم الجمهور بعد حظر الرئيس ترامب الفيدرالي للأداة بسبب رفض Anthropic لمتطلبات السلامة في الذكاء الاصطناعي.

من إعداد الذكاء الاصطناعي

تسببت أداة الذكاء الاصطناعي Claude Cowork من Anthropic في انخفاض حاد في أسهم Infosys وTCS وشركات SaaS أخرى. خسرت هذه الشركات مئات المليارات من الدولارات من قيمتها السوقية. السبب هو صعود الذكاء الاصطناعي.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض