يستخدم الهاكرز نماذج اللغة الكبيرة لإنشاء هجمات تصيد احتيالي من الجيل التالي

يحذر خبراء الأمن السيبراني من أن الهاكرز يستغلون نماذج اللغة الكبيرة (LLMs) لإنشاء هجمات تصيد احتيالي متطورة. تمكن هذه الأدوات الذكاء الاصطناعي من توليد صفحات تصيد احتيالي فوريًا، مما قد يجعل الاحتيال أكثر ديناميكية وأصعب كشفًا. تُبرز هذه الاتجاه التهديدات المتطورة في الأمن الرقمي.

في مقال حديث نشرته TechRadar في 26 يناير 2026، يُسلط الضوء على استخدام الهاكرز لنماذج اللغة الكبيرة (LLMs) لتطوير تقنيات تصيد احتيالي متقدمة. المقال، بعنوان 'يستخدم الهاكرز LLMs لبناء الجيل التالي من هجمات التصيد الاحتيالي - إليك ما يجب الانتباه إليه'، يستكشف كيف يمكن لهذه الأنظمة الذكاء الاصطناعي أتمتة وتخصيص جهود التصيد الاحتيالي في الوقت الفعلي. تطرح الوصف سؤالًا رئيسيًا: 'ماذا لو تم توليد صفحة تصيد احتيالي فوريًا؟'. هذا يشير إلى تحول من مواقع تصيد احتيالي ثابتة إلى ديناميكية، والتي يمكن أن تتكيف مع مدخلات أو سياقات المستخدم، مما يزيد من فعاليتها. بينما لا يفصل المقتطف المتاح أمثلة محددة أو دفاعات، يهدف المقال إلى إعلام القراء باليقظة ضد مثل هذه التهديدات الناشئة. مع زيادة إتاحة نماذج LLMs، يجب أن تتطور تدابير الأمن السيبراني لمواجهة الهجمات المساعدة بالذكاء الاصطناعي، مع التأكيد على وعي المستخدم وأدوات الكشف القوية.

مقالات ذات صلة

Illustration of a hacker using AI to swiftly build VoidLink malware targeting Linux cloud servers, featuring rapid code generation and infiltrated systems.
صورة مولدة بواسطة الذكاء الاصطناعي

إطار برمجيات خبيثة VoidLink بمساعدة الذكاء الاصطناعي يستهدف خوادم لينكس السحابية

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

كشف باحثو Check Point أن VoidLink، وهو برمجية خبيثة متقدمة لنظام لينكس تستهدف الخوادم السحابية، تم بناؤها إلى حد كبير من قبل مطور واحد باستخدام أدوات الذكاء الاصطناعي. يشمل الإطار أكثر من 30 إضافة وحداتية للوصول طويل الأمد إلى النظام، وقد وصل إلى 88,000 سطر كود في أقل من أسبوع على الرغم من خطط تشير إلى جدول زمني يبلغ 20-30 أسبوعًا. يبرز هذا التطور إمكانية الذكاء الاصطناعي في تسريع إنشاء البرمجيات الخبيثة المتقدمة.

يثير خبراء الأمن السيبراني قلقاً متزايداً حيال كيفية إعادة تشكيل الذكاء الاصطناعي للجرائم الإلكترونية، مع أدوات مثل الديبفيكس والتصيد الاحتيالي بالذكاء الاصطناعي والنماذج اللغوية الكبيرة المظلمة التي تمكن حتى المبتدئين من تنفيذ عمليات احتيال متقدمة. تشكل هذه التطورات مخاطر كبيرة على الشركات في العام القادم. تؤكد رؤى منشورة من TechRadar على حجم وتطور هذه التهديدات الناشئة.

من إعداد الذكاء الاصطناعي

In 2025, cyber threats in the Philippines stuck to traditional methods like phishing and ransomware, without new forms emerging. However, artificial intelligence amplified the volume and scale of these attacks, leading to an 'industrialization of cybercrime'. Reports from various cybersecurity firms highlight increases in speed, scale, and frequency of incidents.

Nigerian businesses are being urged to focus on staff training in the face of escalating phishing threats.

من إعداد الذكاء الاصطناعي

قدّمت جوجل دفاعات جديدة ضد حقن الـprompts في متصفح كروم الخاص بها. تحتوي التحديث على نظام ذكاء اصطناعي مصمم لمراقبة أنشطة الذكاءات الاصطناعية الأخرى.

اكتشفت شركة الأمن Varonis طريقة جديدة لهجمات حقن البرمبت تستهدف Microsoft Copilot، مما يسمح باختراق المستخدمين بنقرة واحدة فقط. تبرز هذه الثغرة المخاطر المستمرة في أنظمة الذكاء الاصطناعي. ظهرت التفاصيل في تقرير حديث لـTechRadar.

من إعداد الذكاء الاصطناعي

حذر باحثو الأمن، الذين نشروا التقرير الأول عبر TechRadar في ديسمبر 2025، مستخدمي واتساب البالغ عددهم 3 مليارات من GhostPairing، وهي تقنية تخدع الضحايا لربط متصفحات المهاجمين بحساباتهم، مما يتيح الوصول الكامل دون اختراق كلمات المرور أو التشفير من طرف إلى طرف.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض