Rocky Linuxの設立支援およびサービス提供パートナーであるCIQは、CIQ Pro AI版Rocky Linux(RLC Pro AI)の一般提供を発表した。このエンタープライズLinuxディストリビューションは、AI推論およびGPU加速生産ワークロード向けに設計されており、初日から高いパフォーマンスを発揮するための調整済みコンポーネントを提供する。ベアメタル、Kubernetes、さまざまなクラウド環境にわたるデプロイメントをサポートする。
CIQは、AI推論およびその他のGPU加速生産ワークロード向けの自社Rocky LinuxディストリビューションのバージョンであるRLC Pro AIを発売した。この製品はPyTorchをNVIDIAのCUDAおよびDOCA OFEDソフトウェアスタックとバンドルしており、CIQはロードマップ上で追加のハードウェアパートナーおよびフレームワークを明示している。併せてCIQは、組織が機械学習およびAIワークロードを本番環境に移行するケースが増加する中、オペレーティングシステムの選択がGPUハードウェアの有効性に影響を及ぼす、特に大規模展開時において顕著であると強調している。RLC Pro AIは、AIワークロード向けに特化して調整・検証されたGPUドライバ、ライブラリ、フレームワークとともにCIQ Linuxカーネルを組み込んでいる。ベアメタルからKubernetes、オンプレミスインフラまでのデプロイメントをサポートするよう構築されており、企業が現在購入しているハードウェアをターゲットに、NVIDIA GPUアクセラレータに対する即時サポートを提供する。このディストリビューションは、手動チューニングを最小限に抑え、更新後の設定ドリフトを防ぐための事前調整済みカーネル設定、PyTorchフラグ、CUDA設定を特徴とする。CIQによると、組織は初日から既存のGPU展開でより高いスループットを実現でき、さまざまなユースケースで検証されたパフォーマンス向上が得られるが、具体的なベンチマーク数値は提供されていない。このアプローチは、AWS、Google Cloud Platform、Microsoft Azureなどのパブリッククラウド、ならびにベアメタルや主権オンプレミス環境においても一貫したパフォーマンスを可能にする。RLC Pro AIは、より広範なRocky Linux from CIQ Pro製品ファミリーの一部を構成し、RLC+NVIDIA、RLC Pro、RLC Pro Hardenedを含む。CIQはRocky Linuxの設立サポートパートナーとして位置づけられ、IT自動化向けのAscender Pro、クラウドHPCオーケストレーション向けのFuzzball、クラスタプロビジョニング向けのWarewulf Pro、高性能コンピューティングコンテナ向けのApptainerなどの関連ツールを提供している。この発表は、主権インフラへの注力を強調し、ローカル制御、データ居住性、ポリシー遵守を優先する。CIQのCEOでRocky Linux創設者のGregory Kurtzer氏は、「OSこそがGPUのROIが決まる場所であり、業界はその重要性を長らく無視してきた。組織はGPUインフラに数億ドルを投資しながら、本来の設計目的でないOSで運用している。RLC Pro AIはAIインフラ投資を簡素化・低リスク化しつつ、最先端のパフォーマンスとシンプルさを実現する。」とコメントした。CIQ社長のBjorn Hovland氏は、「GPUコンピュートは今日のAIインフラで最も制約が厳しく高価なリソースである。RLC Pro AIは、組織がすでに支払ったインフラからより多くの価値を引き出す。単一GPUノードを運用するスタートアップから数千ノードを管理するエンタープライズまで、その経済性は一貫している。」と付け加えた。