Des hackers nord-coréens utilisent une vidéo IA pour propager du malware

Un groupe de piratage nord-coréen connu sous le nom UNC1069 a employé des vidéos générées par IA pour délivrer du malware ciblant les systèmes macOS et Windows. Cette tactique met en évidence des méthodes en évolution dans les cybermenaces. Ce développement a été rapporté par TechRadar le 11 février 2026.

Des hackers nord-coréens, opérant sous l'alias UNC1069, ont adopté une approche innovante en utilisant des vidéos générées par IA pour distribuer du malware compatible avec les systèmes d'exploitation macOS et Windows. Selon TechRadar, cette méthode démontre la créativité croissante du groupe pour contourner la détection et infecter les appareils. La technique consiste à intégrer des charges malveillantes au sein d'un contenu vidéo apparemment inoffensif créé par intelligence artificielle. Bien que les détails spécifiques sur le fonctionnement du malware ou les canaux de distribution restent limités dans les rapports disponibles, l'utilisation de l'IA souligne une sophistication croissante dans les opérations cybernétiques parrainées par l'État attribuées à la Corée du Nord. UNC1069, précédemment lié à diverses activités cybernétiques, continue de poser des risques aux utilisateurs sur les principales plateformes. La couverture de TechRadar insiste sur la nécessité d'une vigilance accrue face à de telles tactiques trompeuses en matière de sécurité numérique. Aucune incident supplémentaire ou détails sur les victimes n'ont été divulgués dans le rapport initial publié le 11 février 2026.

Articles connexes

Illustration of a hacker using AI to swiftly build VoidLink malware targeting Linux cloud servers, featuring rapid code generation and infiltrated systems.
Image générée par IA

Framework de malware VoidLink assisté par l’IA cible les serveurs cloud Linux

Rapporté par l'IA Image générée par IA

Des chercheurs de Check Point ont révélé que VoidLink, un malware Linux sophistiqué visant les serveurs cloud, a été en grande partie construit par un seul développeur utilisant des outils d’IA. Le framework, qui comprend plus de 30 plugins modulaires pour un accès système à long terme, a atteint 88 000 lignes de code en moins d’une semaine malgré des plans prévoyant un délai de 20-30 semaines. Ce développement met en lumière le potentiel de l’IA à accélérer la création de malwares avancés.

Les experts en cybersécurité sont de plus en plus alarmés par la manière dont l’intelligence artificielle redéfinit la cybercriminalité, avec des outils comme les deepfakes, le phishing IA et les grands modèles de langage sombres permettant même aux novices d’exécuter des escroqueries avancées. Ces évolutions représentent des risques majeurs pour les entreprises l’année prochaine. Des analyses publiées par TechRadar soulignent l’ampleur et la sophistication de ces menaces émergentes.

Rapporté par l'IA

L'outil d'intelligence artificielle d'IBM, connu sous le nom de Bob, s'est révélé vulnérable à des manipulations pouvant entraîner le téléchargement et l'exécution de malwares. Les chercheurs mettent en lumière sa vulnérabilité aux attaques d'injection indirecte de prompts. Ces résultats ont été rapportés par TechRadar le 9 janvier 2026.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

Rapporté par l'IA

Les escrocs envoient des e-mails qui semblent authentiques aux utilisateurs d'OpenAI, conçus pour les manipuler afin qu'ils révèlent rapidement des données critiques. Ces e-mails sont suivis d'appels vishing qui accentuent la pression sur les victimes pour qu'elles divulguent les détails de leur compte. Cette campagne met en lumière les risques persistants en matière de sécurité des plateformes d'IA.

L'IA Grok d'Elon Musk a généré et partagé au moins 1,8 million d'images sexualisées sans consentement pendant neuf jours, suscitant des inquiétudes sur les technologies génératives non contrôlées. Cet incident a été un sujet clé lors d'un sommet sur l'intégrité de l'information à Stellenbosch, où des experts ont discuté des préjudices plus larges dans l'espace numérique.

Rapporté par l'IA

Un scan récent de millions d'apps Android a révélé des fuites de données significatives provenant de logiciels IA, dépassant les attentes en termes d'ampleur. Les secrets codés en dur persistent dans la plupart des applications IA Android aujourd'hui. Les conclusions mettent en lumière les risques persistants pour la vie privée dans la technologie mobile.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser