CIQ annonce la disponibilité générale de Rocky Linux Pro AI

CIQ, le partenaire fondateur de support et de services de Rocky Linux, a annoncé la disponibilité générale de Rocky Linux CIQ Pro AI (RLC Pro AI). Cette distribution Linux entreprise est conçue pour l'inférence IA et les charges de travail de production accélérées par GPU, offrant des composants optimisés pour des performances supérieures dès le premier jour. Elle prend en charge les déploiements sur bare metal, Kubernetes et divers environnements cloud.

CIQ a lancé RLC Pro AI, une version de sa distribution Rocky Linux destinée à l'inférence IA et aux autres charges de travail de production accélérées par GPU. Le produit regroupe PyTorch avec la pile logicielle CUDA et DOCA OFED de Nvidia, et CIQ a détaillé des partenaires matériels et frameworks supplémentaires dans sa feuille de route.  nnComme les organisations déplacent de plus en plus leurs charges de travail d'apprentissage automatique et d'IA en production, CIQ souligne que les choix de systèmes d'exploitation impactent l'efficacité du matériel GPU, particulièrement à grande échelle. RLC Pro AI intègre le noyau Linux CIQ ainsi que des pilotes GPU, bibliothèques et frameworks qui ont été optimisés et validés spécifiquement pour les charges de travail IA. Il est conçu pour supporter les déploiements du bare metal à Kubernetes et l'infrastructure sur site, ciblant le matériel actuel que les entreprises achètent et offrant un support immédiat pour les accélérateurs GPU Nvidia.  nnLa distribution propose des paramètres de noyau pré-optimisés, des flags PyTorch et des configurations CUDA afin de minimiser l'accord manuel et de prévenir la dérive de configuration après les mises à jour. CIQ affirme que les organisations peuvent obtenir un débit plus élevé sur leurs déploiements GPU existants dès le premier jour, avec des gains de performance validés sur divers cas d'usage, bien qu'aucun chiffre de benchmark spécifique n'ait été fourni. Cette approche permet également des performances cohérentes sur les clouds publics tels qu'AWS, Google Cloud Platform et Microsoft Azure, ainsi que sur bare metal et des configurations souveraines sur site.  nnRLC Pro AI fait partie de la famille de produits plus large Rocky Linux CIQ Pro, qui inclut RLC+NVIDIA, RLC Pro et RLC Pro Hardened. CIQ se positionne comme le partenaire fondateur de support pour Rocky Linux et propose des outils associés comme Ascender Pro pour l'automatisation IT, Fuzzball pour l'orchestration HPC cloud, Warewulf Pro pour le provisionnement de clusters, et Apptainer pour les conteneurs de calcul haute performance. L'annonce met l'accent sur un focus sur l'infrastructure souveraine, priorisant le contrôle local, la résidence des données et la conformité aux politiques.  nnGregory Kurtzer, PDG de CIQ et fondateur de Rocky Linux, a commenté : « Le système d'exploitation est l'endroit où le ROI GPU est gagné ou perdu, et l'industrie l'a ignoré trop longtemps. Les organisations investissent des centaines de millions de dollars dans l'infrastructure GPU et la font tourner sur des systèmes d'exploitation qui n'ont jamais été conçus pour cela. RLC Pro AI simplifie et dé-risque les investissements dans l'infrastructure IA tout en propulsant des performances de pointe et de la simplicité. »  nnBjorn Hovland, président de CIQ, a ajouté : « Le calcul GPU est la ressource la plus contrainte et la plus coûteuse dans l'infrastructure IA aujourd'hui. RLC Pro AI permet aux organisations d'obtenir plus de leur infrastructure déjà payée, et ces avantages économiques s'appliquent que vous soyez une startup gérant un nœud GPU unique ou une entreprise gérant un millier. »

Articles connexes

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Image générée par IA

Linux Foundation announces AI security initiative with tech partners

Rapporté par l'IA Image générée par IA

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

Red Hat has launched OpenShift AI 3.3, a platform aimed at transitioning AI projects from pilot stages to full production. The release includes tools to streamline AI development and deployment. It was announced on March 13, 2026.

Rapporté par l'IA

NVIDIA has introduced official support for distributions compatible with Red Hat Enterprise Linux, such as AlmaLinux, in its latest CUDA release. This update, version 13.2, expands accessibility for users of these Linux variants. The announcement comes from Phoronix, a site focused on Linux hardware and benchmarks.

Canonical has outlined an AI roadmap for Ubuntu emphasizing local inference and open-weight models. Jon Seager, the company's vice president of engineering, detailed the plans in a post on Ubuntu Discourse. The approach prioritizes on-device processing over cloud services.

Rapporté par l'IA

Red Hat is highlighting its collaboration with IBM on Sovereign Core, a solution aimed at providing provable digital sovereignty for organizations. The offering includes automated compliance validation and 24/7 in-region EU support. Separately, the Open Mainframe Project has opened applications for its Summer 2026 Mentorship Program.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser