AerynOS, uma distribuição Linux em fase alpha, implementou uma política que proíbe modelos de linguagem grandes em seu desenvolvimento e atividades comunitárias. A medida aborda questões éticas com dados de treinamento, impactos ambientais e riscos de qualidade. As exceções são limitadas a necessidades de tradução e acessibilidade.
AerynOS, uma distribuição Linux focada em atualizações atômicas e ainda em sua fase alpha, atualizou suas diretrizes de contribuição para proibir o uso de modelos de linguagem grandes (LLMs) em todo o projeto. Essa decisão, anunciada no Reddit, aplica-se a todos os aspectos do desenvolvimento e engajamento comunitário, incluindo código-fonte, documentação, relatórios de problemas e arte. A política decorre de várias preocupações principais. Desenvolvedores destacam problemas éticos com a forma como os LLMs são treinados, incluindo a obtenção de dados. Eles também apontam os altos custos ambientais, como o consumo excessivo de eletricidade e água envolvidos na construção e operação desses modelos. Além disso, há preocupações sobre como o conteúdo gerado por LLM poderia degradar a qualidade geral das contribuições e levantar possíveis questões de direitos autorais. Embora a proibição seja abrangente, a AerynOS permite exceções estreitas. Contribuidores podem usar LLMs apenas para traduzir texto para o inglês em problemas ou comentários. O projeto pode considerar mais permissões para fins de acessibilidade. Em termos de suporte ao usuário, a equipe desaconselha depender de chatbots de IA em vez da documentação oficial. Pedidos baseados em saídas imprecisas de LLM correm o risco de serem ignorados, pois os mantenedores visam evitar depuração de erros de terceiros. Essa política visionária busca garantir que todas as contribuições passem por revisão humana, mantendo assim os padrões técnicos e a confiabilidade do projeto. Ela reflete uma tendência crescente entre iniciativas de código aberto para examinar a integração de IA em meio a debates mais amplos sobre suas implicações.