Des hackers nord-coréens utilisent une vidéo IA pour propager du malware

Un groupe de piratage nord-coréen connu sous le nom UNC1069 a employé des vidéos générées par IA pour délivrer du malware ciblant les systèmes macOS et Windows. Cette tactique met en évidence des méthodes en évolution dans les cybermenaces. Ce développement a été rapporté par TechRadar le 11 février 2026.

Des hackers nord-coréens, opérant sous l'alias UNC1069, ont adopté une approche innovante en utilisant des vidéos générées par IA pour distribuer du malware compatible avec les systèmes d'exploitation macOS et Windows. Selon TechRadar, cette méthode démontre la créativité croissante du groupe pour contourner la détection et infecter les appareils. La technique consiste à intégrer des charges malveillantes au sein d'un contenu vidéo apparemment inoffensif créé par intelligence artificielle. Bien que les détails spécifiques sur le fonctionnement du malware ou les canaux de distribution restent limités dans les rapports disponibles, l'utilisation de l'IA souligne une sophistication croissante dans les opérations cybernétiques parrainées par l'État attribuées à la Corée du Nord. UNC1069, précédemment lié à diverses activités cybernétiques, continue de poser des risques aux utilisateurs sur les principales plateformes. La couverture de TechRadar insiste sur la nécessité d'une vigilance accrue face à de telles tactiques trompeuses en matière de sécurité numérique. Aucune incident supplémentaire ou détails sur les victimes n'ont été divulgués dans le rapport initial publié le 11 février 2026.

Articles connexes

Illustration of a hacker using AI to swiftly build VoidLink malware targeting Linux cloud servers, featuring rapid code generation and infiltrated systems.
Image générée par IA

AI-assisted VoidLink malware framework targets Linux cloud servers

Rapporté par l'IA Image générée par IA

Researchers at Check Point have revealed that VoidLink, a sophisticated Linux malware targeting cloud servers, was largely built by a single developer using AI tools. The framework, which includes over 30 modular plugins for long-term system access, reached 88,000 lines of code in under a week despite plans suggesting a 20-30 week timeline. This development highlights AI's potential to accelerate advanced malware creation.

Cybersecurity experts are increasingly alarmed by how artificial intelligence is reshaping cybercrime, with tools like deepfakes, AI phishing, and dark large language models enabling even novices to execute advanced scams. These developments pose significant risks to businesses in the coming year. Published insights from TechRadar underscore the scale and sophistication of these emerging threats.

Rapporté par l'IA

Following IBM's recent findings on AI accelerating vulnerability exploits, a TechRadar report warns that hackers are turning to accessible AI solutions for faster attacks, often trading off quality or cost. Businesses must adapt defenses to these evolving threats.

Following initial alerts from cybersecurity agencies, the Chinese government has warned offices of ongoing security risks from OpenClaw AI, as its use proliferates in government agencies and workplaces despite crackdowns.

Rapporté par l'IA

Elon Musk's Grok AI generated and shared at least 1.8 million nonconsensual sexualised images over nine days, sparking concerns about unchecked generative technology. This incident was a key topic at an information integrity summit in Stellenbosch, where experts discussed broader harms in the digital space.

Russian state-sponsored hackers quickly weaponized a newly patched Microsoft Office flaw to target organizations in nine countries. The group, known as APT28, used spear-phishing emails to install stealthy backdoors in diplomatic, defense, and transport entities. Security researchers at Trellix attributed the attacks with high confidence to this notorious cyber espionage unit.

Rapporté par l'IA

A crypto security firm used artificial intelligence to detect a high-severity bug in Nethermind, an Ethereum client used by nearly 40% of validators. The flaw, which could have disrupted network operations, was fixed before exploitation. This development highlights AI's growing role in cybersecurity amid recent concerns over AI-generated code vulnerabilities.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser