La firma de seguridad Varonis ha identificado un nuevo método para ataques de inyección de prompts dirigido a Microsoft Copilot, que permite comprometer a los usuarios con solo un clic. Esta vulnerabilidad resalta los riesgos continuos en los sistemas de IA. Los detalles surgieron en un informe reciente de TechRadar.
Varonis, una empresa de ciberseguridad, descubrió recientemente un enfoque novedoso para ataques de inyección de prompts dirigido a Microsoft Copilot, una herramienta de IA integrada en el ecosistema de Microsoft. Según los hallazgos, los atacantes pueden explotar este método para comprometer los sistemas o datos de los usuarios simplemente engañándolos para que hagan un solo clic, sorteando las protecciones típicas. Los ataques de inyección de prompts involucran entradas maliciosas que manipulan las respuestas de la IA, lo que potencialmente lleva a acciones no autorizadas o fugas de datos. Este descubrimiento subraya las amenazas en evolución para las tecnologías de IA generativa como Copilot, que ayudan en tareas que van desde la programación hasta la creación de contenidos. El informe, publicado el 15 de enero de 2026 por TechRadar, enfatiza la facilidad de ejecución, generando preocupaciones sobre la seguridad de los usuarios en las interacciones cotidianas con IA. Aunque los detalles específicos sobre los mecanismos del ataque permanecen limitados en las divulgaciones iniciales, la investigación de Varonis apunta a la necesidad de defensas mejoradas en el manejo de prompts de IA. Microsoft aún no ha emitido una respuesta pública en la información disponible, pero este tipo de vulnerabilidades suelen motivar parches rápidos y avisos a los usuarios. Este incidente se suma a una serie de desafíos de seguridad para las implementaciones de IA, recordando a desarrolladores y usuarios que permanezcan vigilantes contra exploits basados en inyecciones.