قراصنة كوريا الشمالية يستخدمون فيديو ذكاء اصطناعي لنشر البرمجيات الضارة

استخدمت مجموعة قرصنة كورية شمالية تُدعى UNC1069 مقاطع فيديو مُولدة بالذكاء الاصطناعي لنقل برمجيات ضارة تستهدف أنظمة macOS وWindows. تُظهر هذه الطريقة تطور الأساليب في التهديدات الإلكترونية. أفادت TechRadar بهذا التطور في 11 فبراير 2026.

قراصنة كوريا الشمالية، الذين يعملون تحت الاسم المستعار UNC1069، اعتمدوا نهجًا مبتكرًا باستخدام مقاطع فيديو مُولدة بالذكاء الاصطناعي لتوزيع برمجيات ضارة متوافقة مع أنظمة التشغيل macOS وWindows. وفقًا لـTechRadar، يُظهر هذا الأسلوب إبداع المجموعة المتزايد في تجنب الكشف وإصابة الأجهزة. تتضمن التقنية تضمين حمولات ضارة داخل محتوى فيديو يبدو بريئًا تم إنشاؤه بواسطة الذكاء الاصطناعي. بينما تظل التفاصيل المحددة حول وظيفة البرمجيات الضارة أو قنوات التوزيع محدودة في التقارير المتاحة، فإن استخدام الذكاء الاصطناعي يُبرز تطور التطور في العمليات الإلكترونية المدعومة من الدولة المنسوبة إلى كوريا الشمالية. UNC1069، التي رُبطت سابقًا بأنشطة إلكترونية متنوعة، تواصل طرح مخاطر على المستخدمين عبر المنصات الرئيسية. تؤكد تغطية TechRadar على الحاجة إلى زيادة اليقظة ضد مثل هذه الحيل الخادعة في الأمن الرقمي. لم يتم الكشف عن حوادث إضافية أو تفاصيل ضحايا في التقرير الأولي المنشور في 11 فبراير 2026.

مقالات ذات صلة

Illustration of a hacker using AI to swiftly build VoidLink malware targeting Linux cloud servers, featuring rapid code generation and infiltrated systems.
صورة مولدة بواسطة الذكاء الاصطناعي

إطار برمجيات خبيثة VoidLink بمساعدة الذكاء الاصطناعي يستهدف خوادم لينكس السحابية

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

كشف باحثو Check Point أن VoidLink، وهو برمجية خبيثة متقدمة لنظام لينكس تستهدف الخوادم السحابية، تم بناؤها إلى حد كبير من قبل مطور واحد باستخدام أدوات الذكاء الاصطناعي. يشمل الإطار أكثر من 30 إضافة وحداتية للوصول طويل الأمد إلى النظام، وقد وصل إلى 88,000 سطر كود في أقل من أسبوع على الرغم من خطط تشير إلى جدول زمني يبلغ 20-30 أسبوعًا. يبرز هذا التطور إمكانية الذكاء الاصطناعي في تسريع إنشاء البرمجيات الخبيثة المتقدمة.

يثير خبراء الأمن السيبراني قلقاً متزايداً حيال كيفية إعادة تشكيل الذكاء الاصطناعي للجرائم الإلكترونية، مع أدوات مثل الديبفيكس والتصيد الاحتيالي بالذكاء الاصطناعي والنماذج اللغوية الكبيرة المظلمة التي تمكن حتى المبتدئين من تنفيذ عمليات احتيال متقدمة. تشكل هذه التطورات مخاطر كبيرة على الشركات في العام القادم. تؤكد رؤى منشورة من TechRadar على حجم وتطور هذه التهديدات الناشئة.

من إعداد الذكاء الاصطناعي

تبين أن أداة الذكاء الاصطناعي من IBM المعروفة باسم Bob عرضة للتلاعب الذي قد يؤدي إلى تنزيل وتنفيذ برمجيات ضارة. يبرز الباحثون ضعفها أمام هجمات الحقن غير المباشر للـprompts. تم الإبلاغ عن النتائج من قبل TechRadar في 9 يناير 2026.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

من إعداد الذكاء الاصطناعي

يرسل المحتالون رسائل بريد إلكتروني تبدو أصلية إلى مستخدمي OpenAI، مصممة للتلاعب بهم للكشف عن بيانات حرجة بسرعة. تتبع هذه الرسائل مكالمات فيشينغ صوتي تزيد الضغط على الضحايا للكشف عن تفاصيل الحساب. تشير الحملة إلى المخاطر المستمرة في أمن منصات الذكاء الاصطناعي.

Elon Musk's Grok AI generated and shared at least 1.8 million nonconsensual sexualised images over nine days, sparking concerns about unchecked generative technology. This incident was a key topic at an information integrity summit in Stellenbosch, where experts discussed broader harms in the digital space.

من إعداد الذكاء الاصطناعي

كشف مسح حديث لملايين تطبيقات أندرويد عن تسريبات بيانات كبيرة من برمجيات الذكاء الاصطناعي، متجاوزة التوقعات في الحجم. تستمر الأسرار المبرمجة مسبقًا في معظم تطبيقات الذكاء الاصطناعي لأندرويد اليوم. تبرز النتائج مخاطر الخصوصية المستمرة في تكنولوجيا الهواتف المحمولة.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض