CIQ, le partenaire fondateur de support et de services de Rocky Linux, a annoncé la disponibilité générale de Rocky Linux CIQ Pro AI (RLC Pro AI). Cette distribution Linux entreprise est conçue pour l'inférence IA et les charges de travail de production accélérées par GPU, offrant des composants optimisés pour des performances supérieures dès le premier jour. Elle prend en charge les déploiements sur bare metal, Kubernetes et divers environnements cloud.
CIQ a lancé RLC Pro AI, une version de sa distribution Rocky Linux destinée à l'inférence IA et aux autres charges de travail de production accélérées par GPU. Le produit regroupe PyTorch avec la pile logicielle CUDA et DOCA OFED de Nvidia, et CIQ a détaillé des partenaires matériels et frameworks supplémentaires dans sa feuille de route. nnComme les organisations déplacent de plus en plus leurs charges de travail d'apprentissage automatique et d'IA en production, CIQ souligne que les choix de systèmes d'exploitation impactent l'efficacité du matériel GPU, particulièrement à grande échelle. RLC Pro AI intègre le noyau Linux CIQ ainsi que des pilotes GPU, bibliothèques et frameworks qui ont été optimisés et validés spécifiquement pour les charges de travail IA. Il est conçu pour supporter les déploiements du bare metal à Kubernetes et l'infrastructure sur site, ciblant le matériel actuel que les entreprises achètent et offrant un support immédiat pour les accélérateurs GPU Nvidia. nnLa distribution propose des paramètres de noyau pré-optimisés, des flags PyTorch et des configurations CUDA afin de minimiser l'accord manuel et de prévenir la dérive de configuration après les mises à jour. CIQ affirme que les organisations peuvent obtenir un débit plus élevé sur leurs déploiements GPU existants dès le premier jour, avec des gains de performance validés sur divers cas d'usage, bien qu'aucun chiffre de benchmark spécifique n'ait été fourni. Cette approche permet également des performances cohérentes sur les clouds publics tels qu'AWS, Google Cloud Platform et Microsoft Azure, ainsi que sur bare metal et des configurations souveraines sur site. nnRLC Pro AI fait partie de la famille de produits plus large Rocky Linux CIQ Pro, qui inclut RLC+NVIDIA, RLC Pro et RLC Pro Hardened. CIQ se positionne comme le partenaire fondateur de support pour Rocky Linux et propose des outils associés comme Ascender Pro pour l'automatisation IT, Fuzzball pour l'orchestration HPC cloud, Warewulf Pro pour le provisionnement de clusters, et Apptainer pour les conteneurs de calcul haute performance. L'annonce met l'accent sur un focus sur l'infrastructure souveraine, priorisant le contrôle local, la résidence des données et la conformité aux politiques. nnGregory Kurtzer, PDG de CIQ et fondateur de Rocky Linux, a commenté : « Le système d'exploitation est l'endroit où le ROI GPU est gagné ou perdu, et l'industrie l'a ignoré trop longtemps. Les organisations investissent des centaines de millions de dollars dans l'infrastructure GPU et la font tourner sur des systèmes d'exploitation qui n'ont jamais été conçus pour cela. RLC Pro AI simplifie et dé-risque les investissements dans l'infrastructure IA tout en propulsant des performances de pointe et de la simplicité. » nnBjorn Hovland, président de CIQ, a ajouté : « Le calcul GPU est la ressource la plus contrainte et la plus coûteuse dans l'infrastructure IA aujourd'hui. RLC Pro AI permet aux organisations d'obtenir plus de leur infrastructure déjà payée, et ces avantages économiques s'appliquent que vous soyez une startup gérant un nœud GPU unique ou une entreprise gérant un millier. »