Intels Cache Aware Scheduling-funktion för Linuxkärnan har visat prestandaförbättringar på Xeon 6 Granite Rapids-processorer. Ingenjörer utvecklade denna funktionalitet för att optimera uppgiftplacering på flercache-system. Benchmarks på en dubbel Xeon-konfiguration visar fördelar över olika arbetsbelastningar.
Under det senaste året har Intels ingenjörer förbättrat Cache Aware Scheduling i Linuxkärnan. Denna ännu ej sammansmälta kod gör det möjligt för kärnan att gruppera uppgifter som delar data på samma sista-nivå-cache-domän, vilket minimerar cache-missar och databounce mellan kärnor. Även om Intel ledde arbetet gynnar funktionen processorer från andra leverantörer med flera cache-domäner också. I oktober visade tester på en dubbel AMD EPYC 9965-server förbättringar i flera arbetsbelastningar. Nu riktar liknande utvärderingar sig mot Intels Xeon 6 Granite Rapids-serie. Med en Gigabyte R284-A92-AAL1-server utrustad med två Xeon 6980P-processorer och 24 moduler med 64 GB DDR5-8800 MRDIMM-minne bedömde nyliga benchmarks den senaste koditerationen. Testerna använde Git-grenen cache-aware-v2, anpassad till Linux 6.18-rc7, och jämfördes med huvudgrenen Linux 6.18.7 utan schemaläggningsförbättringen. Systemet körde Ubuntu 25.10 med standardpaket inklusive GCC 15.2, men med byte till anpassad kärna. Dessa uppsättningar belyser hur Cache Aware Scheduling kan förbättra effektiviteten på högpresterande serverhårdvara som Granite Rapids, och potentiellt påverka framtida kärnintegrationer för bättre multicore-prestanda.