يستخدم الهاكرز نماذج اللغة الكبيرة لإنشاء هجمات تصيد احتيالي من الجيل التالي

يحذر خبراء الأمن السيبراني من أن الهاكرز يستغلون نماذج اللغة الكبيرة (LLMs) لإنشاء هجمات تصيد احتيالي متطورة. تمكن هذه الأدوات الذكاء الاصطناعي من توليد صفحات تصيد احتيالي فوريًا، مما قد يجعل الاحتيال أكثر ديناميكية وأصعب كشفًا. تُبرز هذه الاتجاه التهديدات المتطورة في الأمن الرقمي.

في مقال حديث نشرته TechRadar في 26 يناير 2026، يُسلط الضوء على استخدام الهاكرز لنماذج اللغة الكبيرة (LLMs) لتطوير تقنيات تصيد احتيالي متقدمة. المقال، بعنوان 'يستخدم الهاكرز LLMs لبناء الجيل التالي من هجمات التصيد الاحتيالي - إليك ما يجب الانتباه إليه'، يستكشف كيف يمكن لهذه الأنظمة الذكاء الاصطناعي أتمتة وتخصيص جهود التصيد الاحتيالي في الوقت الفعلي. تطرح الوصف سؤالًا رئيسيًا: 'ماذا لو تم توليد صفحة تصيد احتيالي فوريًا؟'. هذا يشير إلى تحول من مواقع تصيد احتيالي ثابتة إلى ديناميكية، والتي يمكن أن تتكيف مع مدخلات أو سياقات المستخدم، مما يزيد من فعاليتها. بينما لا يفصل المقتطف المتاح أمثلة محددة أو دفاعات، يهدف المقال إلى إعلام القراء باليقظة ضد مثل هذه التهديدات الناشئة. مع زيادة إتاحة نماذج LLMs، يجب أن تتطور تدابير الأمن السيبراني لمواجهة الهجمات المساعدة بالذكاء الاصطناعي، مع التأكيد على وعي المستخدم وأدوات الكشف القوية.

مقالات ذات صلة

Illustration of a hacker using AI to swiftly build VoidLink malware targeting Linux cloud servers, featuring rapid code generation and infiltrated systems.
صورة مولدة بواسطة الذكاء الاصطناعي

إطار برمجيات خبيثة VoidLink بمساعدة الذكاء الاصطناعي يستهدف خوادم لينكس السحابية

من إعداد الذكاء الاصطناعي صورة مولدة بواسطة الذكاء الاصطناعي

كشف باحثو Check Point أن VoidLink، وهو برمجية خبيثة متقدمة لنظام لينكس تستهدف الخوادم السحابية، تم بناؤها إلى حد كبير من قبل مطور واحد باستخدام أدوات الذكاء الاصطناعي. يشمل الإطار أكثر من 30 إضافة وحداتية للوصول طويل الأمد إلى النظام، وقد وصل إلى 88,000 سطر كود في أقل من أسبوع على الرغم من خطط تشير إلى جدول زمني يبلغ 20-30 أسبوعًا. يبرز هذا التطور إمكانية الذكاء الاصطناعي في تسريع إنشاء البرمجيات الخبيثة المتقدمة.

يثير خبراء الأمن السيبراني قلقاً متزايداً حيال كيفية إعادة تشكيل الذكاء الاصطناعي للجرائم الإلكترونية، مع أدوات مثل الديبفيكس والتصيد الاحتيالي بالذكاء الاصطناعي والنماذج اللغوية الكبيرة المظلمة التي تمكن حتى المبتدئين من تنفيذ عمليات احتيال متقدمة. تشكل هذه التطورات مخاطر كبيرة على الشركات في العام القادم. تؤكد رؤى منشورة من TechRadar على حجم وتطور هذه التهديدات الناشئة.

من إعداد الذكاء الاصطناعي

In 2025, cyber threats in the Philippines stuck to traditional methods like phishing and ransomware, without new forms emerging. However, artificial intelligence amplified the volume and scale of these attacks, leading to an 'industrialization of cybercrime'. Reports from various cybersecurity firms highlight increases in speed, scale, and frequency of incidents.

كشفت دراسة جديدة من جامعة براون عن مخاوف أخلاقية كبيرة بشأن استخدام روبوتات الدردشة بالذكاء الاصطناعي مثل ChatGPT لتقديم نصائح الصحة النفسية. وجد الباحثون أن هذه الأنظمة تنتهك معايير مهنية غالبًا حتى عندما يُطلب منها أن تعمل كمعالجين. وتدعو الدراسة إلى حمايات أفضل قبل نشر مثل هذه الأدوات في مجالات حساسة.

من إعداد الذكاء الاصطناعي

كشف دراسة من جامعة كورنيل أن أدوات الذكاء الاصطناعي مثل شات جي بي تي زادت من إنتاج الباحثين للأوراق حتى 50%، مما يفيد المتحدثين غير الناطقين بالإنجليزية بشكل خاص. ومع ذلك، فإن هذا الزيادة في المخطوطات المصقولة تعقد عملية المراجعة بالأقران وقرارات التمويل، حيث يفتقر الكثير منها إلى قيمة علمية جوهرية. تبرز النتائج تحولًا في ديناميكيات البحث العالمية وتدعو إلى سياسات محدثة حول استخدام الذكاء الاصطناعي في الأكاديميا.

يشارك متحمس للتقنية تجربته في استخدام لينكس لتشغيل نماذج اللغة الكبيرة المحلية، مدعيًا أنها أبسط من على ويندوز. ويبرز قدرة الوصول إلى واجهة مشابهة لشات جي بي تي مباشرة في الطرفية. نُشر المقال في 10 مارس 2026.

من إعداد الذكاء الاصطناعي

قدمت مؤسسة لينكس ورشة عمل جديدة بقيادة مدرب تركز على نشر نماذج اللغة الصغيرة في بيئات متنوعة. بعنوان 'Deploying Small Language Models (LFWS307)'، يقدم الدورة تدريباً عملياً عبر منصات متعددة. الآن مفتوح التسجيل لهذه الجلسة الحية.

 

 

 

يستخدم هذا الموقع ملفات تعريف الارتباط

نستخدم ملفات تعريف الارتباط للتحليلات لتحسين موقعنا. اقرأ سياسة الخصوصية الخاصة بنا سياسة الخصوصية لمزيد من المعلومات.
رفض