Google ajoute des défenses contre l'injection de prompts à Chrome

Google a introduit de nouvelles défenses contre l'injection de prompts dans son navigateur Chrome. La mise à jour intègre un système d'IA conçu pour surveiller les activités d'autres IA.

Dans une récente amélioration de sécurité, Google a intégré des protections contre l'injection de prompts dans Chrome. L'injection de prompts représente une vulnérabilité où des entrées malveillantes peuvent manipuler les comportements des IA. Pour y remédier, le navigateur inclut désormais un mécanisme d'IA qui supervise et vérifie les opérations d'autres composants d'intelligence artificielle.

Ce développement vise à renforcer la sécurité des utilisateurs lors des interactions web impliquant des technologies d'IA. Cette fonctionnalité a été mise en avant dans un rapport de TechRadar publié le 10 décembre 2025, soulignant son rôle dans la vérification des actions des IA pour prévenir les exploits potentiels.

Bien que les détails spécifiques de mise en œuvre restent limités dans les rapports disponibles, cette addition souligne les efforts continus de Google pour sécuriser les intégrations d'IA dans les outils de navigation populaires. Les utilisateurs peuvent s'attendre à des protections améliorées contre les manipulations non autorisées des IA dans les futures mises à jour de Chrome.

Articles connexes

Illustration of Google Search AI Mode with Personal Intelligence feature integrating Gmail and Photos for personalized results.
Image générée par IA

Google ajoute une intelligence personnelle au mode IA dans la recherche

Rapporté par l'IA Image générée par IA

Google a lancé une fonctionnalité expérimentale « Personal Intelligence » pour son Mode IA dans Recherche, permettant aux utilisateurs de connecter Gmail et Google Photos pour des réponses plus adaptées. Cet outil opt-in, propulsé par Gemini 3, vise à rendre les résultats de recherche plus pertinents en s'appuyant sur des données personnelles sans entraîner les modèles sur des boîtes de réception complètes. Il est déployé en premier pour les abonnés payants aux États-Unis.

La société de sécurité Varonis a identifié une nouvelle méthode d'attaques par injection de prompt visant Microsoft Copilot, permettant de compromettre les utilisateurs en un seul clic. Cette vulnérabilité met en lumière les risques persistants dans les systèmes d'IA. Les détails ont émergé dans un rapport récent de TechRadar.

Rapporté par l'IA

Google a déployé de nouveaux outils IA Gemini pour son navigateur Chrome, incluant une barre latérale pour le multitâche et un générateur d'images intégré. Les mises à jour incluent également une prévisualisation de l'agent «Auto Browse» pour automatiser les tâches web. Ces améliorations visent à rendre la navigation plus personnalisée et efficace.

Un scan récent de millions d'apps Android a révélé des fuites de données significatives provenant de logiciels IA, dépassant les attentes en termes d'ampleur. Les secrets codés en dur persistent dans la plupart des applications IA Android aujourd'hui. Les conclusions mettent en lumière les risques persistants pour la vie privée dans la technologie mobile.

Rapporté par l'IA

Les experts en cybersécurité sont de plus en plus alarmés par la manière dont l’intelligence artificielle redéfinit la cybercriminalité, avec des outils comme les deepfakes, le phishing IA et les grands modèles de langage sombres permettant même aux novices d’exécuter des escroqueries avancées. Ces évolutions représentent des risques majeurs pour les entreprises l’année prochaine. Des analyses publiées par TechRadar soulignent l’ampleur et la sophistication de ces menaces émergentes.

Microsoft a annoncé une série de fonctionnalités d'IA générative pour Windows 11, visant à transformer chaque PC en un 'PC IA' grâce à l'activation vocale, l'analyse d'écran et la gestion automatisée des fichiers. Ces mises à jour, incluant la commande vocale 'Hey, Copilot' et le déploiement mondial de Copilot Vision, s'appuient sur l'accent mis par l'entreprise sur l'IA agentique. Les fonctionnalités mettent l'accent sur des interactions naturelles avec l'utilisateur tout en abordant les préoccupations passées en matière de confidentialité liées à des outils comme Recall.

Rapporté par l'IA

Les escrocs envoient des e-mails qui semblent authentiques aux utilisateurs d'OpenAI, conçus pour les manipuler afin qu'ils révèlent rapidement des données critiques. Ces e-mails sont suivis d'appels vishing qui accentuent la pression sur les victimes pour qu'elles divulguent les détails de leur compte. Cette campagne met en lumière les risques persistants en matière de sécurité des plateformes d'IA.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser