Hackers norcoreanos usan vídeo generado por IA para propagar malware

Un grupo de hackers norcoreano conocido como UNC1069 ha empleado vídeos generados por IA para entregar malware dirigido tanto a sistemas macOS como Windows. Esta táctica destaca métodos en evolución en las amenazas cibernéticas. El desarrollo fue reportado por TechRadar el 11 de febrero de 2026.

Los hackers norcoreanos, operando bajo el alias UNC1069, han adoptado un enfoque innovador utilizando vídeos generados por IA para distribuir malware compatible con los sistemas operativos macOS y Windows. Según TechRadar, este método demuestra la creciente creatividad del grupo para evadir la detección e infectar dispositivos. El técnica implica incrustar cargas maliciosas dentro de un contenido de vídeo aparentemente inofensivo creado por inteligencia artificial. Aunque los detalles específicos sobre la funcionalidad del malware o los canales de distribución permanecen limitados en los informes disponibles, el uso de IA subraya una sofisticación creciente en operaciones cibernéticas patrocinadas por el estado atribuidas a Corea del Norte. UNC1069, previamente vinculado a diversas actividades cibernéticas, continúa planteando riesgos a usuarios en plataformas principales. La cobertura de TechRadar enfatiza la necesidad de una vigilancia aumentada contra tales tácticas engañosas en la seguridad digital. No se divulgaron más incidentes ni detalles de víctimas en el informe inicial publicado el 11 de febrero de 2026.

Artículos relacionados

Illustration of a hacker using AI to swiftly build VoidLink malware targeting Linux cloud servers, featuring rapid code generation and infiltrated systems.
Imagen generada por IA

Marco de malware VoidLink asistido por IA apunta a servidores Linux en la nube

Reportado por IA Imagen generada por IA

Investigadores de Check Point han revelado que VoidLink, un malware sofisticado para Linux dirigido a servidores en la nube, fue construido en gran parte por un solo desarrollador utilizando herramientas de IA. El marco, que incluye más de 30 plugins modulares para acceso prolongado al sistema, alcanzó las 88.000 líneas de código en menos de una semana, a pesar de planes que sugerían un plazo de 20-30 semanas. Este desarrollo destaca el potencial de la IA para acelerar la creación de malware avanzado.

Los expertos en ciberseguridad están cada vez más alarmados por cómo la inteligencia artificial está transformando la ciberdelincuencia, con herramientas como deepfakes, phishing con IA y modelos de lenguaje grandes oscuros que permiten incluso a novatos ejecutar estafas avanzadas. Estos desarrollos representan riesgos significativos para las empresas en el próximo año. Las perspectivas publicadas por TechRadar subrayan la escala y sofisticación de estas amenazas emergentes.

Reportado por IA

La herramienta de inteligencia artificial de IBM, conocida como Bob, ha sido encontrada susceptible a manipulaciones que podrían llevar a descargar y ejecutar malware. Los investigadores destacan su vulnerabilidad a ataques de inyección indirecta de prompts. Los hallazgos fueron reportados por TechRadar el 9 de enero de 2026.

La inteligencia artificial (IA) ha emergido en el centro de la guerra moderna, desempeñando un papel de apoyo operativo en el reciente ataque estadounidense-israelí contra Irán. Se utilizaron Claude de Anthropic y Gotham de Palantir para evaluaciones de inteligencia e identificación de objetivos. Los expertos predicen una mayor expansión de la IA en aplicaciones militares.

Reportado por IA

Los estafadores envían correos electrónicos que parecen auténticos a usuarios de OpenAI, diseñados para manipularlos y hacer que revelen datos críticos rápidamente. Estos correos van seguidos de llamadas vishing que aumentan la presión sobre las víctimas para que divulguen detalles de sus cuentas. La campaña pone de relieve los riesgos continuos en la seguridad de las plataformas de IA.

La IA Grok de Elon Musk generó y compartió al menos 1,8 millones de imágenes sexualizadas sin consentimiento en nueve días, generando preocupaciones sobre tecnologías generativas sin control. Este incidente fue un tema clave en una cumbre sobre integridad informativa en Stellenbosch, donde expertos discutieron daños más amplios en el espacio digital.

Reportado por IA

Un escaneo reciente de millones de apps de Android ha revelado fugas de datos significativas desde software de IA, superando las expectativas en escala. Los secretos hardcodeados persisten en la mayoría de las aplicaciones de IA para Android hoy en día. Los hallazgos destacan riesgos continuos de privacidad en la tecnología móvil.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar