Google ajoute des défenses contre l'injection de prompts à Chrome

Google a introduit de nouvelles défenses contre l'injection de prompts dans son navigateur Chrome. La mise à jour intègre un système d'IA conçu pour surveiller les activités d'autres IA.

Dans une récente amélioration de sécurité, Google a intégré des protections contre l'injection de prompts dans Chrome. L'injection de prompts représente une vulnérabilité où des entrées malveillantes peuvent manipuler les comportements des IA. Pour y remédier, le navigateur inclut désormais un mécanisme d'IA qui supervise et vérifie les opérations d'autres composants d'intelligence artificielle.

Ce développement vise à renforcer la sécurité des utilisateurs lors des interactions web impliquant des technologies d'IA. Cette fonctionnalité a été mise en avant dans un rapport de TechRadar publié le 10 décembre 2025, soulignant son rôle dans la vérification des actions des IA pour prévenir les exploits potentiels.

Bien que les détails spécifiques de mise en œuvre restent limités dans les rapports disponibles, cette addition souligne les efforts continus de Google pour sécuriser les intégrations d'IA dans les outils de navigation populaires. Les utilisateurs peuvent s'attendre à des protections améliorées contre les manipulations non autorisées des IA dans les futures mises à jour de Chrome.

Articles connexes

Illustration of Google Search AI Mode with Personal Intelligence feature integrating Gmail and Photos for personalized results.
Image générée par IA

Google ajoute une intelligence personnelle au mode IA dans la recherche

Rapporté par l'IA Image générée par IA

Google a lancé une fonctionnalité expérimentale « Personal Intelligence » pour son Mode IA dans Recherche, permettant aux utilisateurs de connecter Gmail et Google Photos pour des réponses plus adaptées. Cet outil opt-in, propulsé par Gemini 3, vise à rendre les résultats de recherche plus pertinents en s'appuyant sur des données personnelles sans entraîner les modèles sur des boîtes de réception complètes. Il est déployé en premier pour les abonnés payants aux États-Unis.

La société de sécurité Varonis a identifié une nouvelle méthode d'attaques par injection de prompt visant Microsoft Copilot, permettant de compromettre les utilisateurs en un seul clic. Cette vulnérabilité met en lumière les risques persistants dans les systèmes d'IA. Les détails ont émergé dans un rapport récent de TechRadar.

Rapporté par l'IA

Des criminels ont distribué de fausses extensions IA dans le Google Chrome Web Store pour cibler plus de 300 000 utilisateurs. Ces outils visent à voler des emails, des données personnelles et d'autres informations. Le problème met en lumière les efforts continus pour promouvoir des logiciels de surveillance via des canaux légitimes.

Une nouvelle plateforme de cybercriminalité connue sous le nom de 1Campaign permet aux hackers de diffuser des publicités Google malveillantes tout en évitant le processus de vérification de l'entreprise. Ce développement suscite des inquiétudes dans la communauté de la cybersécurité. L'émergence de la plateforme met en lumière les défis persistants en matière de sécurité de la publicité en ligne.

Rapporté par l'IA

Google a annoncé des améliorations de ses Résumés IA dans Search, désormais alimentés par défaut par le modèle Gemini 3. La mise à jour permet aux utilisateurs de poser des questions de suivi via une interface de chat menant à des conversations en mode IA. Ce déploiement vise à rendre les recherches plus conversationnelles et précises à l'échelle mondiale sur les appareils mobiles.

Google est en train de réorganiser l'équipe derrière le projet Mariner, son agent d'intelligence artificielle qui navigue dans le navigateur Chrome pour accomplir les tâches de l'utilisateur. Au cours des derniers mois, certains membres du personnel de Google Labs ont été affectés à des projets plus prioritaires, ont indiqué à WIRED des sources au fait de la situation.

Rapporté par l'IA

Les experts en cybersécurité sont de plus en plus alarmés par la manière dont l’intelligence artificielle redéfinit la cybercriminalité, avec des outils comme les deepfakes, le phishing IA et les grands modèles de langage sombres permettant même aux novices d’exécuter des escroqueries avancées. Ces évolutions représentent des risques majeurs pour les entreprises l’année prochaine. Des analyses publiées par TechRadar soulignent l’ampleur et la sophistication de ces menaces émergentes.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser