A funcionalidade Cache Aware Scheduling da Intel para o kernel Linux demonstrou ganhos de desempenho em processadores Xeon 6 Granite Rapids. Engenheiros desenvolveram essa funcionalidade para otimizar a colocação de tarefas em sistemas multi-cache. Benchmarks em uma configuração dual Xeon demonstram benefícios em várias cargas de trabalho.
Ao longo do último ano, engenheiros da Intel avançaram no Cache Aware Scheduling no kernel Linux. Esse código ainda não incorporado permite que o kernel agrupe tarefas que compartilham dados no mesmo domínio de cache de último nível, minimizando falhas de cache e o salto de dados entre núcleos. Embora a Intel tenha liderado o esforço, a funcionalidade beneficia processadores de outros fornecedores com múltiplos domínios de cache também. Em outubro, testes em um servidor dual AMD EPYC 9965 revelaram melhorias em várias cargas de trabalho. Agora, avaliações semelhantes visam a série Xeon 6 Granite Rapids da Intel. Usando um servidor Gigabyte R284-A92-AAL1 equipado com dois processadores Xeon 6980P e 24 módulos de 64 GB DDR5-8800 MRDIMM, benchmarks recentes avaliaram a iteração mais recente do código. Os testes usaram o branch Git cache-aware-v2, alinhado com Linux 6.18-rc7, e o compararam ao kernel principal Linux 6.18.7 sem a melhoria de agendamento. O sistema executou Ubuntu 25.10, com pacotes padrão incluindo GCC 15.2, mas com a troca para o kernel personalizado. Essas configurações destacam como o Cache Aware Scheduling pode aprimorar a eficiência em hardware de servidor de ponta como Granite Rapids, potencialmente influenciando integrações futuras do kernel para melhor desempenho multi-core.