كشفت Red Hat عن خطط لتوزيع أداة CUDA الخاصة بـ NVIDIA من خلال مستودعاتها لـ Red Hat Enterprise Linux، و Red Hat AI، و OpenShift. الإعلان، الذي تم إعلانه في مؤتمر GTC الخاص بـ NVIDIA، يهدف إلى تبسيط الحوسبة المعجلة بـ GPU لأحمال عمل الذكاء الاصطناعي. تشمل هذه الخطوة دمج وحدات معالجة البيانات NVIDIA BlueField DPUs في OpenShift لتعزيز الأمان والأداء.
في 28 أكتوبر 2025، خلال مؤتمر GTC الخاص بـ NVIDIA، أعلنت Red Hat عن تعاون أعمق مع NVIDIA لتوزيع أداة CUDA مباشرة عبر مستودعاتها الرسمية. ينطبق هذا على Red Hat Enterprise Linux (RHEL)، و Red Hat AI، و OpenShift، مما يسمح للمستخدمين بتثبيت CUDA والبرمجيات ذات الصلة من NVIDIA باستخدام مديري الحزم القياسيين مثل DNF أو YUM، بدلاً من التنزيلات اليدوية من موقع NVIDIA.
تهدف المبادرة إلى تلبية طلبات العملاء لدمج أسهل لمنصة الحوسبة المتوازية من NVIDIA، خاصة في تطبيقات الذكاء الاصطناعي وتعلم الآلة. تبني على جهود سابقة، مثل التعاون في عام 2019 لتبسيط نشر برامج تشغيل GPU، وتمتد إلى كامل مكدس CUDA، بما في ذلك المكتبات لإطارات مثل TensorFlow و PyTorch. سيدعم التوزيع CUDA 13.0 والإصدارات اللاحقة على RHEL 9 والإصدار الأخير RHEL 10.
كما تقوم Red Hat بدمج دعم وحدات معالجة البيانات BlueField من NVIDIA (DPUs) في OpenShift. يمكن ذلك تحميل مهام الشبكات والأمان والتخزين من وحدات المعالجة المركزية، مما يحسن الأداء في البيئات المحولة والمحتواة. قال المدير التنفيذي للتكنولوجيا في Red Hat، كريس رايت: “يمنح هذا التعاون الشركات القدرة على بناء ونشر حلول الذكاء الاصطناعي بكفاءة أكبر على منصة موثوقة.”
يتوافق الإعلان مع دفعة Red Hat للذكاء الاصطناعي، بعد إطلاق RHEL AI في سبتمبر 2024، وهي منصة للذكاء الاصطناعي التوليدي في السحابة الهجينة. تشمل الميزات الإضافية صور أساسية عالمية (UBI) مقواة بـ STIG لـ GPUs NVIDIA على OpenShift ودعم الحاويات السرية مع GPUs NVIDIA لتأمين أصول الذكاء الاصطناعي. تغطي هذه التحديثات أيضاً تحسينات مثل ترقيات vLLM V1 لنماذج اللغة الكبيرة الهجينة.
يضع هذا Red Hat في وسط المنافسة من توزيعات مثل Ubuntu و SUSE، التي حسنت دعم CUDA، مع التركيز على الاختبارات المؤسسية والتوافق مع ميزات الأمان في RHEL.