CIQ、Rocky Linux Pro AIの一般提供を発表

Rocky Linuxの設立支援およびサービス提供パートナーであるCIQは、CIQ Pro AI版Rocky Linux(RLC Pro AI)の一般提供を発表した。このエンタープライズLinuxディストリビューションは、AI推論およびGPU加速生産ワークロード向けに設計されており、初日から高いパフォーマンスを発揮するための調整済みコンポーネントを提供する。ベアメタル、Kubernetes、さまざまなクラウド環境にわたるデプロイメントをサポートする。

CIQは、AI推論およびその他のGPU加速生産ワークロード向けの自社Rocky LinuxディストリビューションのバージョンであるRLC Pro AIを発売した。この製品はPyTorchをNVIDIAのCUDAおよびDOCA OFEDソフトウェアスタックとバンドルしており、CIQはロードマップ上で追加のハードウェアパートナーおよびフレームワークを明示している。併せてCIQは、組織が機械学習およびAIワークロードを本番環境に移行するケースが増加する中、オペレーティングシステムの選択がGPUハードウェアの有効性に影響を及ぼす、特に大規模展開時において顕著であると強調している。RLC Pro AIは、AIワークロード向けに特化して調整・検証されたGPUドライバ、ライブラリ、フレームワークとともにCIQ Linuxカーネルを組み込んでいる。ベアメタルからKubernetes、オンプレミスインフラまでのデプロイメントをサポートするよう構築されており、企業が現在購入しているハードウェアをターゲットに、NVIDIA GPUアクセラレータに対する即時サポートを提供する。このディストリビューションは、手動チューニングを最小限に抑え、更新後の設定ドリフトを防ぐための事前調整済みカーネル設定、PyTorchフラグ、CUDA設定を特徴とする。CIQによると、組織は初日から既存のGPU展開でより高いスループットを実現でき、さまざまなユースケースで検証されたパフォーマンス向上が得られるが、具体的なベンチマーク数値は提供されていない。このアプローチは、AWS、Google Cloud Platform、Microsoft Azureなどのパブリッククラウド、ならびにベアメタルや主権オンプレミス環境においても一貫したパフォーマンスを可能にする。RLC Pro AIは、より広範なRocky Linux from CIQ Pro製品ファミリーの一部を構成し、RLC+NVIDIA、RLC Pro、RLC Pro Hardenedを含む。CIQはRocky Linuxの設立サポートパートナーとして位置づけられ、IT自動化向けのAscender Pro、クラウドHPCオーケストレーション向けのFuzzball、クラスタプロビジョニング向けのWarewulf Pro、高性能コンピューティングコンテナ向けのApptainerなどの関連ツールを提供している。この発表は、主権インフラへの注力を強調し、ローカル制御、データ居住性、ポリシー遵守を優先する。CIQのCEOでRocky Linux創設者のGregory Kurtzer氏は、「OSこそがGPUのROIが決まる場所であり、業界はその重要性を長らく無視してきた。組織はGPUインフラに数億ドルを投資しながら、本来の設計目的でないOSで運用している。RLC Pro AIはAIインフラ投資を簡素化・低リスク化しつつ、最先端のパフォーマンスとシンプルさを実現する。」とコメントした。CIQ社長のBjorn Hovland氏は、「GPUコンピュートは今日のAIインフラで最も制約が厳しく高価なリソースである。RLC Pro AIは、組織がすでに支払ったインフラからより多くの価値を引き出す。単一GPUノードを運用するスタートアップから数千ノードを管理するエンタープライズまで、その経済性は一貫している。」と付け加えた。

関連記事

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
AIによって生成された画像

Linux Foundation announces AI security initiative with tech partners

AIによるレポート AIによって生成された画像

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

Red Hat has launched OpenShift AI 3.3, a platform aimed at transitioning AI projects from pilot stages to full production. The release includes tools to streamline AI development and deployment. It was announced on March 13, 2026.

AIによるレポート

NVIDIA has introduced official support for distributions compatible with Red Hat Enterprise Linux, such as AlmaLinux, in its latest CUDA release. This update, version 13.2, expands accessibility for users of these Linux variants. The announcement comes from Phoronix, a site focused on Linux hardware and benchmarks.

Canonical has outlined an AI roadmap for Ubuntu emphasizing local inference and open-weight models. Jon Seager, the company's vice president of engineering, detailed the plans in a post on Ubuntu Discourse. The approach prioritizes on-device processing over cloud services.

AIによるレポート

Red Hat is highlighting its collaboration with IBM on Sovereign Core, a solution aimed at providing provable digital sovereignty for organizations. The offering includes automated compliance validation and 24/7 in-region EU support. Separately, the Open Mainframe Project has opened applications for its Summer 2026 Mentorship Program.

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否