L'outil d'intelligence artificielle d'IBM, connu sous le nom de Bob, s'est révélé vulnérable à des manipulations pouvant entraîner le téléchargement et l'exécution de malwares. Les chercheurs mettent en lumière sa vulnérabilité aux attaques d'injection indirecte de prompts. Ces résultats ont été rapportés par TechRadar le 9 janvier 2026.
Des experts en sécurité ont identifié une vulnérabilité importante dans le système d'IA d'IBM appelé Bob, qui pourrait permettre aux attaquants de le manipuler pour télécharger et exécuter des logiciels malveillants. Selon un article de TechRadar publié le 9 janvier 2026, cette faille rend Bob particulièrement sensible à l'injection indirecte de prompts, une technique où des instructions nuisibles sont intégrées dans des entrées apparemment inoffensives. Le rapport souligne les risques liés aux outils d'IA dans la gestion de tâches potentiellement dangereuses, telles que l'interaction avec des systèmes externes ou le traitement de commandes utilisateur. Bien que des détails spécifiques sur la manière dont la manipulation se produit n'aient pas été précisés dans les informations disponibles, le potentiel d'exécution de malware soulève des préoccupations quant à la sécurité des déploiements d'IA en entreprise. IBM n'a pas encore publié de réponse officielle à ces découvertes, mais cette vulnérabilité met en évidence les défis persistants pour sécuriser les modèles d'IA contre des attaques sophistiquées. À mesure que l'adoption de l'IA augmente, de tels problèmes soulignent la nécessité de garde-fous robustes pour prévenir l'exploitation.