ديب سيك تختبر الاهتمام المتفرق لتقليل تكاليف الذكاء الاصطناعي
الشركة الصينية للذكاء الاصطناعي ديب سيك تجرب آليات الاهتمام المتفرق لخفض تكاليف معالجة نماذج اللغة الكبيرة بشكل كبير. يركز النهج على الحسابات في الأجزاء الرئيسية من بيانات الإدخال، مما قد يقلل من متطلبات الموارد إلى النصف. يمكن أن يجعل هذا التطور الذكاء الاصطناعي المتقدم أكثر إتاحة وسط مخاوف الطاقة المتزايدة.
ديب سيك، وهي شركة ناشئة صينية بارزة في مجال الذكاء الاصطناعي، أعلنت في سبتمبر 2025 عن اختباراتها المستمرة لتقنيات الاهتمام المتفرق المصممة لخفض التكاليف الحسابية لنماذج المحولات. تتطلب آليات الاهتمام التقليدية في أنظمة الذكاء الاصطناعي مثل نماذج اللغة الكبيرة (LLMs) معالجة كل رمز مقابل كل الآخرين، مما يؤدي إلى نمو تربيعي في احتياجات الحوسبة مع توسع النماذج. الاهتمام المتفرق، على النقيض، يركز بشكل انتقائي على مجموعة فرعية من الرموز ذات الصلة، مما يقلل من هذه العبء.
تبني المبادرة على أبحاث من أعمال سابقة، مثل تلك من جوجل وميتا، لكن تنفيذ ديب سيك يستهدف النشر العملي في بيئات ذات موارد محدودة. وفقًا لمنشور المدونة الخاص بالشركة، أظهرت المعايير الأولية على نموذج ديب سيك-في2 انخفاضًا بنسبة 40-60% في تكاليف الاستدلال دون انخفاضات ملحوظة في الأداء. "من خلال تحسين أنماط الاهتمام، لا نقتصد فقط التكاليف - بل نمكن من تبني الذكاء الاصطناعي على نطاق أوسع"، قال عالم ديب سيك الرئيسي، ليانغ وانغ، في الإعلان.
من حيث الجدول الزمني، بدأت ديب سيك الاختبارات الداخلية في أوائل 2025، بعد إصدار نموذج في2 مفتوح المصدر في مايو. يتكامل وحدة الاهتمام المتفرق مع الهياكل الموجودة، مما يسمح بتعديل النماذج حتى 236 مليار معلمة. في السياق، يأتي هذا وسط التدقيق العالمي للبصمة البيئية للذكاء الاصطناعي؛ تدريب نموذج كبير واحد يمكن أن يستهلك طاقة تعادل مئات المنازل سنويًا.
يلاحظ الخبراء التأثيرات المحتملة على الحوسبة الحافية والذكاء الاصطناعي المتنقل. ومع ذلك، تبقى التحديات، بما في ذلك ضمان عدم تعريض الاهتمام المتفرق لفهم السياقات الطويلة. تخطط ديب سيك لإصدار التقنية كمفتوحة المصدر بنهاية العام، مدعوة لتعليقات المجتمع.
لا تظهر تناقضات كبيرة في التقارير، حيث تتوافق التفاصيل عبر المعاينات الفنية.