يحذر خبراء الأمن السيبراني من أن الهاكرز يستغلون نماذج اللغة الكبيرة (LLMs) لإنشاء هجمات تصيد احتيالي متطورة. تمكن هذه الأدوات الذكاء الاصطناعي من توليد صفحات تصيد احتيالي فوريًا، مما قد يجعل الاحتيال أكثر ديناميكية وأصعب كشفًا. تُبرز هذه الاتجاه التهديدات المتطورة في الأمن الرقمي.
في مقال حديث نشرته TechRadar في 26 يناير 2026، يُسلط الضوء على استخدام الهاكرز لنماذج اللغة الكبيرة (LLMs) لتطوير تقنيات تصيد احتيالي متقدمة. المقال، بعنوان 'يستخدم الهاكرز LLMs لبناء الجيل التالي من هجمات التصيد الاحتيالي - إليك ما يجب الانتباه إليه'، يستكشف كيف يمكن لهذه الأنظمة الذكاء الاصطناعي أتمتة وتخصيص جهود التصيد الاحتيالي في الوقت الفعلي. تطرح الوصف سؤالًا رئيسيًا: 'ماذا لو تم توليد صفحة تصيد احتيالي فوريًا؟'. هذا يشير إلى تحول من مواقع تصيد احتيالي ثابتة إلى ديناميكية، والتي يمكن أن تتكيف مع مدخلات أو سياقات المستخدم، مما يزيد من فعاليتها. بينما لا يفصل المقتطف المتاح أمثلة محددة أو دفاعات، يهدف المقال إلى إعلام القراء باليقظة ضد مثل هذه التهديدات الناشئة. مع زيادة إتاحة نماذج LLMs، يجب أن تتطور تدابير الأمن السيبراني لمواجهة الهجمات المساعدة بالذكاء الاصطناعي، مع التأكيد على وعي المستخدم وأدوات الكشف القوية.