O Enhanced Read-Only File System, ou EROFS, introduziu o compartilhamento de cache de páginas para reduzir significativamente o uso de memória em ambientes conteinerizados. Esse recurso permite que vários contêineres compartilhem páginas em cache da mesma imagem de sistema de arquivos, cortando o desperdício de memória em 40% a 60%. Desenvolvido inicialmente pela Huawei, o EROFS está ganhando tração em cenários de computação em nuvem e edge.
Originalmente criado pela Huawei para dispositivos móveis, o EROFS evoluiu para uma ferramenta chave na orquestração de contêineres em configurações de nuvem e edge. O novo recurso de compartilhamento de cache de páginas permite que múltiplas instâncias de imagens de sistema de arquivos idênticas compartilhem caches de memória, evitando cópias redundantes que inflacionam a demanda por recursos. Em cargas de trabalho pesadas em contêineres, como as no Kubernetes, isso resolve o cache duplicado que prejudica o desempenho durante spin-ups rápidos de pods.
Contribuidores do kernel, incluindo Hongzhen Luo e Hongbo Li, impulsionaram esse desenvolvimento por meio de séries de patches enviadas à Linux Kernel Mailing List. A versão mais recente, v11, refina protótipos anteriores corrigindo bugs, adicionando suporte a readahead e melhorando a compatibilidade com o modo fscache e arquivos anônimos. Esses patches se baseiam em trabalhos do início do ano e visam integração em kernels a partir da versão 5.16, aproveitando a infraestrutura folio para gerenciamento eficiente de memória.
Benchmarks demonstram benefícios claros. Testes com imagens de contêineres Android mostraram reduções significativas de memória ao compartilhar caches entre mounts. Por exemplo, implantar contêineres semelhantes do TensorFlow em um nó alcançou economia de memória de até 20%, enquanto cenários de contêineres mais amplos renderam cortes de 40% a 60% durante picos de carga como tempestades de boot. Phoronix relata melhor throughput de leitura junto com menor consumo de memória, especialmente para dados sobrepostos em fluxos de trabalho de machine learning.
A opção de mount 'sharecache' ativa essa capacidade, garantindo acesso compartilhado seguro via técnicas como copy-on-write. Discussões da comunidade em plataformas como X elogiam seu potencial, com um post notando que pode "cortar o desperdício de memória de contêineres em 40-60%", reduzindo custos para operadores hyperscale. A adoção está se expandindo além da Huawei, atraindo contribuidores da Alibaba e outros, enquanto o EROFS compete com sistemas como SquashFS por meio de compressão e cache superiores.
Desafios incluem proteger caches compartilhados contra vazamentos de dados entre contêineres, com mantenedores debatendo casos de borda na lista de e-mails. Integrações futuras com cgroups e ferramentas como CRI-O ou Docker poderiam aprimorar a densidade em microsserviços e gateways IoT, promovendo computação sustentável em ambientes intensivos em dados.