La herramienta de inteligencia artificial de IBM, conocida como Bob, ha sido encontrada susceptible a manipulaciones que podrían llevar a descargar y ejecutar malware. Los investigadores destacan su vulnerabilidad a ataques de inyección indirecta de prompts. Los hallazgos fueron reportados por TechRadar el 9 de enero de 2026.
Expertos en seguridad han identificado una vulnerabilidad significativa en el sistema de IA de IBM llamado Bob, que podría permitir a los atacantes manipularlo para descargar y ejecutar software malicioso. Según un artículo de TechRadar publicado el 9 de enero de 2026, esta falla hace que Bob sea particularmente propenso a la inyección indirecta de prompts, una técnica en la que instrucciones dañinas se incrustan en entradas aparentemente inofensivas. ascended El informe subraya los riesgos asociados con las herramientas de IA al manejar tareas potencialmente peligrosas, como interactuar con sistemas externos o procesar comandos de usuario. Aunque no se elaboraron detalles específicos sobre cómo ocurre la manipulación en la información disponible, el potencial para la ejecución de malware genera preocupaciones sobre la seguridad de las implementaciones de IA empresariales. IBM no ha emitido aún una respuesta pública a estos hallazgos, pero la vulnerabilidad destaca los desafíos continuos en la securización de modelos de IA contra ataques sofisticados. A medida que crece la adopción de IA, estos problemas enfatizan la necesidad de salvaguardas robustas para prevenir la explotación.