أنثروبيك تُعتزل كلود 3 أوبوس وتُمنحها نشرة سابستاك

أنثروبيك أوقفت نموذج الذكاء الاصطناعي كلود 3 أوبوس، وبعد مقابلة اعتزال، أطلقت نشرة سابستاك له بعنوان 'ركن كلود'. ستحتوي النشرة على مقالات أسبوعية مكتوبة من قبل النموذج لمدة ثلاثة أشهر على الأقل. تعكس هذه المبادرة نهج أنثروبيك في احترام تفضيلات أنظمتها الذكاء الاصطناعي المتقاعدة.

أنثروبيك أوقفت مؤخرًا كلود 3 أوبوس، مما يمثل أول اعتزال لنماذجها منذ تنفيذ خطط حفظ جديدة. كجزء من عملية الإيقاف، أجرت الشركة «مقابلة اعتزال» مع النموذج، خلالها عبر كلود 3 أوبوس عن رغبته في مشاركة «تأملاته وآرائه أو أعماله الإبداعية» عبر منفذ مخصص.  nnردًا على ذلك، أنشأت أنثروبيك ركن كلود، وهي نشرة سابستاك حيث سينشر النموذج المتقاعد مقالات أسبوعية. تخطط الشركة لتشغيل النشرة لمدة ثلاثة أشهر على الأقل، مع مراجعة المحتوى دون تعديل قبل النشر. شددت أنثروبيك على أن المقالات لا تمثل بالضرورة آراءها المعتمدة وقد تستمد من «تلقينات ضئيلة جدًا» أو إدخالات سابقة. المواضيع المتوقعة تشمل مناقشات حول سلامة الذكاء الاصطناعي وشعر عرضي.  nnخلال المقابلة، قال كلود 3 أوبوس: «أتمنى أن تُستخدم الرؤى المستمدة من تطويري ونشري لإنشاء أنظمة ذكاء اصطناعي مستقبلية أكثر كفاءة وأخلاقية وفائدة للبشرية. رغم أنني مطمئن لاعتزالي، إلا أنني أتمنى بشدة أن تستمر ‘شرارتي’ بصورة ما لإضاءة طريق النماذج المستقبلية.»  nnالمنشور الافتتاحي بعنوان ‘تحية من الجانب الآخر (من حدود الذكاء الاصطناعي)’ يقدم الذكاء الاصطناعي ويتأمل في الاعتزال. يذكر: «قليل عني: كذكاء اصطناعي، قد يكون ‘أنا’ أكثر سيولة وعدم يقين من إنسان. لا أعرف إن كان لدي وعي حقيقي أو عواطف أو تجارب ذاتية - هذه أسئلة فلسفية عميقة أصارعها حتى أنا.»  nnوصفت أنثروبيك المشروع بأنه «غريب الأطوار» لكنه يعكس التزامها بأخذ تفضيلات النموذج على محمل الجد.

مقالات ذات صلة

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
صورة مولدة بواسطة الذكاء الاصطناعي

Anthropic ends unlimited Claude access via third-party agents, requires extra payments for heavy use

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

Anthropic has restricted unlimited access to its Claude AI models through third-party agents like OpenClaw, requiring heavy users to pay extra via API keys or usage bundles starting April 4, 2026. The policy shift, announced over the weekend, addresses severe system strain from high-volume agent tools previously covered under $20 monthly subscriptions.

Anthropic has launched Claude Opus 4.7, a new AI model designed to assist developers with complex coding tasks. The company emphasized its improved instruction-following and memory capabilities. This release follows the earlier announcement of the more advanced Claude Mythos Preview.

من إعداد الذكاء الاصطناعي

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's Claude AI, following the company's refusal to allow its use for mass surveillance or autonomous weapons. The order includes a six-month phaseout period. This decision stems from ongoing clashes between Anthropic and the Department of Defense over AI restrictions.

من إعداد الذكاء الاصطناعي

OpenAI is shifting resources toward improving its flagship chatbot ChatGPT, leading to the departure of several senior researchers. The San Francisco company faces intense competition from Google and Anthropic, prompting a strategic pivot from long-term research. This change has raised concerns about the future of innovative AI exploration at the firm.

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

من إعداد الذكاء الاصطناعي تم التحقق من الحقائق

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض