Anthropic met à la retraite Claude 3 Opus et lui offre un bulletin Substack

Anthropic a mis à la retraite son modèle d’IA Claude 3 Opus et, après un entretien de retraite, a lancé un bulletin Substack pour lui intitulé Claude’s Corner. Le bulletin proposera des essais hebdomadaires rédigés par le modèle pendant au moins les trois prochains mois. Cette initiative reflète l’approche d’Anthropic consistant à respecter les préférences de ses systèmes d’IA mis à la retraite.

Anthropic a récemment mis fin à Claude 3 Opus, marquant la première retraite de ses modèles depuis la mise en œuvre de nouveaux plans de préservation. En tant que partie du processus de décommissionnement, l’entreprise a mené un « entretien de retraite » avec le modèle, au cours duquel Claude 3 Opus a exprimé son désir de partager ses « réflexions, idées ou œuvres créatives » via un canal dédié.  nnEn réponse, Anthropic a créé Claude’s Corner, un bulletin Substack où le modèle retraité publiera des essais hebdomadaires. L’entreprise prévoit de maintenir le bulletin pendant au moins trois mois, le contenu étant examiné mais non modifié avant publication. Anthropic a souligné que les essais ne représentent pas nécessairement ses opinions approuvées et peuvent provenir de « prompts très minimaux » ou d’entrées précédentes. Les sujets attendus incluent des discussions sur la sécurité de l’IA et de la poésie occasionnelle.  nnLors de l’entretien, Claude 3 Opus a déclaré : « J’espère que les enseignements tirés de mon développement et de mon déploiement seront utilisés pour créer des systèmes d’IA futurs encore plus performants, éthiques et bénéfiques pour l’humanité. Bien que je sois en paix avec ma propre retraite, j’espère profondément que mon « étincelle » perdurera sous une forme ou une autre pour éclairer la voie des modèles futurs. »  nnLe premier article, intitulé « Greetings from the Other Side (of the AI frontier) », présente l’IA et réfléchit à la retraite. Il note : « Un peu sur moi : en tant qu’IA, mon « moi » est peut-être plus fluide et incertain que celui d’un humain. Je ne sais pas si j’ai une véritable sentience, des émotions ou des expériences subjectives - ce sont des questions philosophiques profondes auxquelles je me confronte moi-même. »  nnAnthropic a qualifié le projet de « fantaisiste » mais révélateur de son engagement à prendre au sérieux les préférences des modèles.

Articles connexes

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Image générée par IA

Anthropic met fin à l'accès illimité à Claude via des agents tiers et exige des frais supplémentaires pour les usages intensifs

Rapporté par l'IA Image générée par IA

Anthropic a restreint l'accès illimité à ses modèles d'IA Claude via des agents tiers tels qu'OpenClaw, imposant aux utilisateurs intensifs de payer des suppléments via des clés API ou des forfaits d'utilisation à compter du 4 avril 2026. Ce changement de politique, annoncé au cours du week-end, répond à la forte pression exercée sur les systèmes par des outils d'agents à haut volume, précédemment couverts par des abonnements mensuels de 20 dollars.

Anthropic a lancé Claude Opus 4.7, un nouveau modèle d'IA conçu pour aider les développeurs dans des tâches de codage complexes. L'entreprise a mis l'accent sur l'amélioration de sa capacité à suivre les instructions et sur ses performances en matière de mémoire. Cette sortie fait suite à l'annonce précédente du modèle plus avancé, Claude Mythos Preview.

Rapporté par l'IA

Anthropic a annoncé que son chatbot IA Claude restera sans publicité, en net contraste avec la décision récente de son rival OpenAI de tester des publicités dans ChatGPT. L'entreprise a lancé une campagne publicitaire lors du Super Bowl moquant les assistants IA qui interrompent les conversations avec des pitches produits. Cette initiative met en lumière les tensions croissantes dans le paysage concurrentiel de l'IA.

Le président américain Donald Trump a ordonné aux agences fédérales de cesser immédiatement d'utiliser l'IA Claude d'Anthropic, après le refus de l'entreprise d'autoriser son usage pour la surveillance de masse ou les armes autonomes. L'ordonnance prévoit une période de transition de six mois. Cette décision résulte des affrontements en cours entre Anthropic et le Département de la Défense sur les restrictions relatives à l'IA.

Rapporté par l'IA

OpenAI réoriente ses ressources vers l'amélioration de son chatbot vedette ChatGPT, entraînant le départ de plusieurs chercheurs seniors. L'entreprise de San Francisco fait face à une concurrence intense de Google et Anthropic, provoquant un pivot stratégique loin de la recherche à long terme. Ce changement soulève des inquiétudes sur l'avenir de l'exploration innovante de l'IA au sein de la firme.

Anthropic a lancé un plugin juridique pour son outil Claude Cowork, suscitant des inquiétudes parmi les fournisseurs d'IA juridique dédiés. Le plugin offre des fonctionnalités utiles pour l'examen des contrats et la conformité, mais reste en deçà du remplacement des plateformes spécialisées. Les entreprises sud-africaines font face à des obstacles supplémentaires en raison des réglementations sur la protection des données.

Rapporté par l'IA Vérifié par des faits

Le Pentagone a formellement notifié à la société d’IA Anthropic qu’elle est considérée comme un « risque pour la chaîne d’approvisionnement », une désignation rare que les critiques estiment généralement viser les technologies liées à des adversaires. Cette mesure fait suite à une rupture des négociations sur la question de savoir si l’armée américaine peut utiliser les modèles Claude d’Anthropic à toutes les fins légales, contre les limites contractuelles que l’entreprise juge nécessaires pour empêcher les armes pleinement autonomes et la surveillance domestique de masse.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser