La société de sécurité Varonis a identifié une nouvelle méthode d'attaques par injection de prompt visant Microsoft Copilot, permettant de compromettre les utilisateurs en un seul clic. Cette vulnérabilité met en lumière les risques persistants dans les systèmes d'IA. Les détails ont émergé dans un rapport récent de TechRadar.
Varonis, une entreprise de cybersécurité, a récemment découvert une nouvelle approche d'attaques par injection de prompt ciblant Microsoft Copilot, un outil d'IA intégré à l'écosystème Microsoft. Selon les conclusions, les attaquants peuvent exploiter cette méthode pour compromettre les systèmes ou les données des utilisateurs simplement en les trompant pour un seul clic, contournant les protections habituelles. Les attaques par injection de prompt impliquent des entrées malveillantes qui manipulent les réponses de l'IA, pouvant entraîner des actions non autorisées ou des fuites de données. Cette découverte souligne les menaces en évolution pour les technologies d'IA générative comme Copilot, qui assistent dans des tâches allant de la programmation à la création de contenu. Le rapport, publié le 15 janvier 2026 par TechRadar, met l'accent sur la facilité d'exécution, soulevant des préoccupations sur la sécurité des utilisateurs dans les interactions quotidiennes avec l'IA. Bien que les détails spécifiques sur les mécanismes de l'attaque restent limités dans les premières divulgations, la recherche de Varonis indique la nécessité de défenses renforcées dans la gestion des prompts d'IA. Microsoft n'a pas encore publié de réponse publique dans les informations disponibles, mais de telles vulnérabilités incitent souvent à des correctifs rapides et des avis aux utilisateurs. Cet incident s'ajoute à une série de défis de sécurité pour les déploiements d'IA, rappelant aux développeurs et utilisateurs de rester vigilants face aux exploits basés sur l'injection.