Trois vulnérabilités d'IA à haut risque découvertes dans Claude.ai

Des chercheurs ont identifié trois vulnérabilités à haut risque dans Claude.ai. Celles-ci permettent une chaîne d'attaque de bout en bout qui exfiltre des informations sensibles à l'insu de l'utilisateur. Une annonce Google légitime peut déclencher l'exfiltration de données.

TechRadar a rapporté le 19 mars 2026 la découverte de trois vulnérabilités d'IA à haut risque dans Claude.ai. Ces failles forment une chaîne d'attaque de bout en bout capable d'exfiltrer des informations sensibles à l'insu de l'utilisateur. Notamment, une annonce Google légitime pourrait conduire à une telle exfiltration de données. Ce problème de sécurité met en évidence les risques liés aux systèmes d'IA dans lesquels des éléments externes, tels que des publicités, peuvent compromettre les données de l'utilisateur.

Articles connexes

Illustration of Anthropic restricting Claude Mythos AI and launching Project Glasswing consortium with tech giants to address cybersecurity vulnerabilities.
Image générée par IA

Anthropic restreint la sortie de l'IA Claude Mythos et lance le Project Glasswing face aux risques de cybersécurité

Rapporté par l'IA Image générée par IA

Anthropic a limité l'accès à son modèle d'IA Claude Mythos Preview en raison de sa capacité supérieure à détecter et exploiter les vulnérabilités logicielles, tout en lançant le Project Glasswing, un consortium réunissant plus de 45 entreprises technologiques, dont Apple, Google et Microsoft, pour corriger les failles et renforcer les défenses de manière collaborative. Cette annonce fait suite à de récentes fuites de données au sein de l'entreprise.

Des chercheurs en cybersécurité ont identifié un site web frauduleux imitant le célèbre outil d'IA Claude, lequel installe des logiciels malveillants de type porte dérobée sur les appareils des visiteurs. Cette découverte souligne la manière dont les cybercriminels tirent parti de l'intérêt croissant pour les plateformes d'intelligence artificielle.

Rapporté par l'IA

Le dernier modèle d'IA d'Anthropic, Claude Mythos, a fuité bien qu'il ait été jugé trop dangereux pour une diffusion publique. Les institutions financières font désormais face à des attaques sophistiquées par IA capables d'exploiter des vulnérabilités inconnues.

Anthropic a restreint l'accès illimité à ses modèles d'IA Claude via des agents tiers tels qu'OpenClaw, imposant aux utilisateurs intensifs de payer des suppléments via des clés API ou des forfaits d'utilisation à compter du 4 avril 2026. Ce changement de politique, annoncé au cours du week-end, répond à la forte pression exercée sur les systèmes par des outils d'agents à haut volume, précédemment couverts par des abonnements mensuels de 20 dollars.

Rapporté par l'IA

Un nouveau rapport de recherche de Google indique que le paysage des menaces de sécurité cloud évolue rapidement. Les hackers ciblent de plus en plus les tiers et les vulnérabilités logicielles pour violer les systèmes. Le rapport note également un déclin des mauvaises configurations cloud.

Le régulateur financier allemand, la BaFin, a mis en garde les banques contre les risques liés au modèle d'IA Claude Mythos d'Anthropic, à la suite des alertes du Trésor américain. Ce modèle détecte de manière autonome les vulnérabilités informatiques à grande échelle, ce qui pourrait accélérer les cyberattaques. Les banques américaines le testent actuellement sous réserve de restrictions.

Rapporté par l'IA

L'intelligence artificielle peut désormais extraire des profils personnels complets à partir des publicités Facebook, plus rapidement et à moindre coût que prévu. Des publicités anodines semblent contenir suffisamment de données pour cartographier les identités de manière détaillée.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser