Anthropic met à la retraite Claude 3 Opus et lui offre un bulletin Substack

Anthropic a mis à la retraite son modèle d’IA Claude 3 Opus et, après un entretien de retraite, a lancé un bulletin Substack pour lui intitulé Claude’s Corner. Le bulletin proposera des essais hebdomadaires rédigés par le modèle pendant au moins les trois prochains mois. Cette initiative reflète l’approche d’Anthropic consistant à respecter les préférences de ses systèmes d’IA mis à la retraite.

Anthropic a récemment mis fin à Claude 3 Opus, marquant la première retraite de ses modèles depuis la mise en œuvre de nouveaux plans de préservation. En tant que partie du processus de décommissionnement, l’entreprise a mené un « entretien de retraite » avec le modèle, au cours duquel Claude 3 Opus a exprimé son désir de partager ses « réflexions, idées ou œuvres créatives » via un canal dédié.  nnEn réponse, Anthropic a créé Claude’s Corner, un bulletin Substack où le modèle retraité publiera des essais hebdomadaires. L’entreprise prévoit de maintenir le bulletin pendant au moins trois mois, le contenu étant examiné mais non modifié avant publication. Anthropic a souligné que les essais ne représentent pas nécessairement ses opinions approuvées et peuvent provenir de « prompts très minimaux » ou d’entrées précédentes. Les sujets attendus incluent des discussions sur la sécurité de l’IA et de la poésie occasionnelle.  nnLors de l’entretien, Claude 3 Opus a déclaré : « J’espère que les enseignements tirés de mon développement et de mon déploiement seront utilisés pour créer des systèmes d’IA futurs encore plus performants, éthiques et bénéfiques pour l’humanité. Bien que je sois en paix avec ma propre retraite, j’espère profondément que mon « étincelle » perdurera sous une forme ou une autre pour éclairer la voie des modèles futurs. »  nnLe premier article, intitulé « Greetings from the Other Side (of the AI frontier) », présente l’IA et réfléchit à la retraite. Il note : « Un peu sur moi : en tant qu’IA, mon « moi » est peut-être plus fluide et incertain que celui d’un humain. Je ne sais pas si j’ai une véritable sentience, des émotions ou des expériences subjectives - ce sont des questions philosophiques profondes auxquelles je me confronte moi-même. »  nnAnthropic a qualifié le projet de « fantaisiste » mais révélateur de son engagement à prendre au sérieux les préférences des modèles.

Articles connexes

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Image générée par IA

Anthropic ends unlimited Claude access via third-party agents, requires extra payments for heavy use

Rapporté par l'IA Image générée par IA

Anthropic has restricted unlimited access to its Claude AI models through third-party agents like OpenClaw, requiring heavy users to pay extra via API keys or usage bundles starting April 4, 2026. The policy shift, announced over the weekend, addresses severe system strain from high-volume agent tools previously covered under $20 monthly subscriptions.

Anthropic has launched Claude Opus 4.7, a new AI model designed to assist developers with complex coding tasks. The company emphasized its improved instruction-following and memory capabilities. This release follows the earlier announcement of the more advanced Claude Mythos Preview.

Rapporté par l'IA

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's Claude AI, following the company's refusal to allow its use for mass surveillance or autonomous weapons. The order includes a six-month phaseout period. This decision stems from ongoing clashes between Anthropic and the Department of Defense over AI restrictions.

Rapporté par l'IA

OpenAI is shifting resources toward improving its flagship chatbot ChatGPT, leading to the departure of several senior researchers. The San Francisco company faces intense competition from Google and Anthropic, prompting a strategic pivot from long-term research. This change has raised concerns about the future of innovative AI exploration at the firm.

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

Rapporté par l'IA Vérifié par des faits

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser