Intel の Linux カーネル向け Cache Aware Scheduling 機能が、Xeon 6 Granite Rapids プロセッサでパフォーマンス向上を示した。エンジニアはこの機能をマルチキャッシュシステムでのタスク配置を最適化するために開発した。デュアル Xeon 構成でのベンチマークがさまざまなワークロードで利点を証明している。
過去1年間、Intel のエンジニアは Linux カーネルでの Cache Aware Scheduling を進化させた。この未マージのコードは、カーネルがデータを共有するタスクを同一の最後のレベルキャッシュドメインにグループ化し、キャッシュミスとコア間のデータバウンスを最小化する。Intel が主導したが、この機能は複数のキャッシュドメインを持つ他のベンダーのプロセッサにも利益をもたらす。 10 月、デュアル AMD EPYC 9965 サーバーでのテストがいくつかのワークロードで改善を示した。今、同様の評価が Intel の Xeon 6 Granite Rapids シリーズを対象としている。Gigabyte R284-A92-AAL1 サーバー(2 つの Xeon 6980P プロセッサと 24 モジュール 64GB DDR5-8800 MRDIMM を搭載)を使用して、最近のベンチマークが最新コードのイテレーションを評価した。 テストは Linux 6.18-rc7 に揃えた cache-aware-v2 Git ブランチを使用し、スケジューリング強化なしのメインブランチ Linux 6.18.7 カーネルと比較した。システムは Ubuntu 25.10 を実行し、デフォルトパッケージに GCC 15.2 を含むが、カスタムカーネルに置き換えていた。これらのセットアップは、Cache Aware Scheduling が Granite Rapids のようなハイエンドサーバーハードウェアで効率を向上させ、多コアパフォーマンスの向上のための将来のカーネル統合に影響を与える可能性を示している。