Los expertos en ciberseguridad advierten que los hackers están aprovechando modelos de lenguaje grandes (LLMs) para crear ataques de phishing sofisticados. Estas herramientas de IA permiten generar páginas de phishing sobre la marcha, lo que podría hacer las estafas más dinámicas y difíciles de detectar. Esta tendencia resalta las amenazas en evolución en la seguridad digital.
En un artículo reciente publicado por TechRadar el 26 de enero de 2026, se destaca el uso de modelos de lenguaje grandes (LLMs) por parte de hackers para desarrollar técnicas avanzadas de phishing. El artículo, titulado 'Los hackers están utilizando LLMs para construir la próxima generación de ataques de phishing: esto es lo que debes vigilar', explora cómo estos sistemas de IA podrían automatizar y personalizar esfuerzos de phishing en tiempo real. La descripción plantea una pregunta clave: '¿Y si una página de phishing se generara sobre la marcha?'. Esto sugiere un cambio de sitios de phishing estáticos a unos dinámicos, que podrían adaptarse a las entradas o contextos del usuario, aumentando su efectividad. Aunque el extracto disponible no detalla ejemplos específicos o defensas, el artículo busca informar a los lectores sobre la necesidad de vigilancia ante tales amenazas emergentes. A medida que los LLMs se vuelven más accesibles, las medidas de ciberseguridad deben evolucionar para contrarrestar ataques asistidos por IA, enfatizando la conciencia del usuario y herramientas de detección robustas.