Anthropic

Suivre
Illustration of Anthropic restricting Claude Mythos AI and launching Project Glasswing consortium with tech giants to address cybersecurity vulnerabilities.
Image générée par IA

Anthropic restreint la sortie de l'IA Claude Mythos et lance le Project Glasswing face aux risques de cybersécurité

Rapporté par l'IA Image générée par IA

Anthropic a limité l'accès à son modèle d'IA Claude Mythos Preview en raison de sa capacité supérieure à détecter et exploiter les vulnérabilités logicielles, tout en lançant le Project Glasswing, un consortium réunissant plus de 45 entreprises technologiques, dont Apple, Google et Microsoft, pour corriger les failles et renforcer les défenses de manière collaborative. Cette annonce fait suite à de récentes fuites de données au sein de l'entreprise.

Anthropic aurait accepté de payer 200 milliards de dollars à Google au cours des cinq prochaines années pour obtenir l'accès à des puces et à des serveurs cloud. Cet accord, rapporté par The Information, fait suite à une entente précédente accordant au créateur de l'IA Claude l'accès à l'infrastructure de Google. Il met en lumière les investissements massifs qui alimentent le secteur de l'IA.

Rapporté par l'IA

Suite aux révélations de la semaine dernière qui ont suscité une inquiétude mondiale, Anthropic a restreint l'accès à sa puissante IA Mythos, capable de détecter des vulnérabilités en cybersécurité, à un groupe sélectionné d'entreprises dans le cadre du projet Glasswing, dont Amazon Web Services, Apple et Google, après qu'une fuite accidentelle a soulevé des préoccupations en matière de sécurité nationale.

S'appuyant sur sa fonctionnalité Cowork lancée en janvier, Anthropic a inauguré une préversion de recherche pour Claude Code et ses outils Cowork, permettant à l'IA Claude des abonnés Pro et Max de contrôler directement les ordinateurs Mac. Elle peut désormais pointer, cliquer, faire défiler et naviguer sur l'écran pour effectuer des tâches telles que l'ouverture de fichiers, l'utilisation de navigateurs, d'outils de développement et l'interaction avec des applications comme Google Calendar et Slack. Des mesures de protection répondent aux risques de sécurité, dans un contexte de concurrence avec des outils comme OpenClaw.

Rapporté par l'IA

La société de droits musicaux BMG a intenté une action en justice contre la société d'intelligence artificielle Anthropic, alléguant l'utilisation non autorisée de paroles de chansons pour former son chatbot Claude. La plainte affirme que l'infraction remonte à la création d'Anthropic et concerne des œuvres d'artistes tels que Justin Bieber et Bruno Mars. BMG demande des dommages et intérêts pouvant aller jusqu'à 150 000 dollars par œuvre violée.

La Python Software Foundation a obtenu 1,5 million de dollars d'Anthropic, l'entreprise derrière Claude AI, pour un partenariat de deux ans axé sur l'amélioration de la sécurité de l'écosystème Python. Cela fait suite au refus de la fondation d'un financement similaire du gouvernement américain l'an dernier en raison de préoccupations concernant les politiques de diversité, équité et inclusion. L'investissement vise à protéger le Python Package Index contre les attaques de la chaîne d'approvisionnement et à soutenir les opérations en cours.

Rapporté par l'IA

Un nouveau document de recherche d'Anthropic révèle que les grands modèles de langage présentent une certaine conscience introspective de leurs processus internes, mais cette capacité est hautement incohérente et peu fiable. Publié le 3 novembre 2025, l'étude intitulée 'Emergent Introspective Awareness in Large Language Models' utilise des méthodes innovantes pour tester l'auto-description de l'IA. Malgré des succès occasionnels, les échecs d'introspection restent la norme.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser