Los hackers utilizan LLMs para crear ataques de phishing de nueva generación

Los expertos en ciberseguridad advierten que los hackers están aprovechando modelos de lenguaje grandes (LLMs) para crear ataques de phishing sofisticados. Estas herramientas de IA permiten generar páginas de phishing sobre la marcha, lo que podría hacer las estafas más dinámicas y difíciles de detectar. Esta tendencia resalta las amenazas en evolución en la seguridad digital.

En un artículo reciente publicado por TechRadar el 26 de enero de 2026, se destaca el uso de modelos de lenguaje grandes (LLMs) por parte de hackers para desarrollar técnicas avanzadas de phishing. El artículo, titulado 'Los hackers están utilizando LLMs para construir la próxima generación de ataques de phishing: esto es lo que debes vigilar', explora cómo estos sistemas de IA podrían automatizar y personalizar esfuerzos de phishing en tiempo real. La descripción plantea una pregunta clave: '¿Y si una página de phishing se generara sobre la marcha?'. Esto sugiere un cambio de sitios de phishing estáticos a unos dinámicos, que podrían adaptarse a las entradas o contextos del usuario, aumentando su efectividad. Aunque el extracto disponible no detalla ejemplos específicos o defensas, el artículo busca informar a los lectores sobre la necesidad de vigilancia ante tales amenazas emergentes. A medida que los LLMs se vuelven más accesibles, las medidas de ciberseguridad deben evolucionar para contrarrestar ataques asistidos por IA, enfatizando la conciencia del usuario y herramientas de detección robustas.

Artículos relacionados

Illustration of a hacker using AI to swiftly build VoidLink malware targeting Linux cloud servers, featuring rapid code generation and infiltrated systems.
Imagen generada por IA

Marco de malware VoidLink asistido por IA apunta a servidores Linux en la nube

Reportado por IA Imagen generada por IA

Investigadores de Check Point han revelado que VoidLink, un malware sofisticado para Linux dirigido a servidores en la nube, fue construido en gran parte por un solo desarrollador utilizando herramientas de IA. El marco, que incluye más de 30 plugins modulares para acceso prolongado al sistema, alcanzó las 88.000 líneas de código en menos de una semana, a pesar de planes que sugerían un plazo de 20-30 semanas. Este desarrollo destaca el potencial de la IA para acelerar la creación de malware avanzado.

Los expertos en ciberseguridad están cada vez más alarmados por cómo la inteligencia artificial está transformando la ciberdelincuencia, con herramientas como deepfakes, phishing con IA y modelos de lenguaje grandes oscuros que permiten incluso a novatos ejecutar estafas avanzadas. Estos desarrollos representan riesgos significativos para las empresas en el próximo año. Las perspectivas publicadas por TechRadar subrayan la escala y sofisticación de estas amenazas emergentes.

Reportado por IA

En 2025, las ciberamenazas en Filipinas se mantuvieron en métodos tradicionales como el phishing y el ransomware, sin que emergieran nuevas formas. Sin embargo, la inteligencia artificial amplificó el volumen y la escala de estos ataques, lo que llevó a una 'industrialización del cibercrimen'. Informes de varias firmas de ciberseguridad destacan aumentos en la velocidad, escala y frecuencia de los incidentes.

Un nuevo estudio de la Universidad Brown identifica preocupaciones éticas significativas con el uso de chatbots de IA como ChatGPT para consejos de salud mental. Los investigadores hallaron que estos sistemas violan a menudo los estándares profesionales incluso cuando se les indica actuar como terapeutas. El trabajo reclama mejores salvaguardas antes de implementar tales herramientas en áreas sensibles.

Reportado por IA

Un estudio de la Universidad de Cornell revela que herramientas de IA como ChatGPT han aumentado la producción de artículos de los investigadores hasta en un 50%, beneficiando especialmente a los hablantes no nativos de inglés. Sin embargo, este aumento en manuscritos pulidos está complicando las revisiones por pares y las decisiones de financiación, ya que muchos carecen de valor científico sustancial. Los hallazgos destacan un cambio en la dinámica de la investigación global y llaman a políticas actualizadas sobre el uso de IA en la academia.

Un entusiasta de la tecnología comparte su experiencia usando Linux para ejecutar modelos de lenguaje grandes locales, afirmando que es más simple que en Windows. Destaca la capacidad de acceder a una interfaz similar a ChatGPT directamente en la terminal. El artículo fue publicado el 10 de marzo de 2026.

Reportado por IA

La Linux Foundation ha introducido un nuevo taller con instructor centrado en implementar modelos de lenguaje pequeños en diversos entornos. Titulado 'Deploying Small Language Models (LFWS307)', el curso ofrece formación práctica en múltiples plataformas. La inscripción ya está abierta para esta sesión en vivo.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar