AerynOS rejeita uso de LLM em contribuições por preocupações éticas

AerynOS, uma distribuição Linux em fase alpha, implementou uma política que proíbe modelos de linguagem grandes em seu desenvolvimento e atividades comunitárias. A medida aborda questões éticas com dados de treinamento, impactos ambientais e riscos de qualidade. As exceções são limitadas a necessidades de tradução e acessibilidade.

AerynOS, uma distribuição Linux focada em atualizações atômicas e ainda em sua fase alpha, atualizou suas diretrizes de contribuição para proibir o uso de modelos de linguagem grandes (LLMs) em todo o projeto. Essa decisão, anunciada no Reddit, aplica-se a todos os aspectos do desenvolvimento e engajamento comunitário, incluindo código-fonte, documentação, relatórios de problemas e arte. A política decorre de várias preocupações principais. Desenvolvedores destacam problemas éticos com a forma como os LLMs são treinados, incluindo a obtenção de dados. Eles também apontam os altos custos ambientais, como o consumo excessivo de eletricidade e água envolvidos na construção e operação desses modelos. Além disso, há preocupações sobre como o conteúdo gerado por LLM poderia degradar a qualidade geral das contribuições e levantar possíveis questões de direitos autorais. Embora a proibição seja abrangente, a AerynOS permite exceções estreitas. Contribuidores podem usar LLMs apenas para traduzir texto para o inglês em problemas ou comentários. O projeto pode considerar mais permissões para fins de acessibilidade. Em termos de suporte ao usuário, a equipe desaconselha depender de chatbots de IA em vez da documentação oficial. Pedidos baseados em saídas imprecisas de LLM correm o risco de serem ignorados, pois os mantenedores visam evitar depuração de erros de terceiros. Essa política visionária busca garantir que todas as contribuições passem por revisão humana, mantendo assim os padrões técnicos e a confiabilidade do projeto. Ela reflete uma tendência crescente entre iniciativas de código aberto para examinar a integração de IA em meio a debates mais amplos sobre suas implicações.

Artigos relacionados

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Imagem gerada por IA

Linux Foundation lança Agentic AI Foundation

Reportado por IA Imagem gerada por IA

A Linux Foundation lançou a Agentic AI Foundation para fomentar a colaboração aberta em sistemas de IA autônomos. Grandes empresas de tecnologia, incluindo Anthropic, OpenAI e Block, contribuíram com projetos open-source chave para promover interoperabilidade e evitar lock-in de fornecedores. A iniciativa visa criar padrões neutros para agentes de IA que possam tomar decisões e executar tarefas de forma independente.

O projeto de código aberto LLVM introduziu uma nova política que permite código gerado por IA em contribuições, desde que revisado e compreendido por humanos. Essa abordagem de 'humano no loop' garante accountability enquanto aborda preocupações da comunidade sobre transparência. A política, desenvolvida com input de contribuintes, equilibra inovação com confiabilidade no desenvolvimento de software.

Reportado por IA

Linus Torvalds, criador do kernel Linux, criticou esforços para criar regras para submissões de código gerado por IA, chamando-as de inúteis. Em um e-mail recente, argumentou que tais políticas não deteriam contribuidores maliciosos e instou o foco na qualidade do código. Essa posição destaca tensões contínuas no desenvolvimento open-source sobre ferramentas de inteligência artificial.

Linus Torvalds, criador do kernel Linux, criticou duramente as discussões sobre conteúdo gerado por IA na documentação do kernel. Ele chamou conversas sobre 'slop de IA' de inúteis e estúpidas. Os comentários destacam tensões contínuas em torno da IA no desenvolvimento de código aberto.

Reportado por IA

Um comentário da CNET argumenta que descrever a IA como tendo qualidades humanas, como almas ou confissões, engana o público e erode a confiança na tecnologia. Destaca como empresas como OpenAI e Anthropic usam tal linguagem, que obscurece questões reais como viés e segurança. O texto clama por terminologia mais precisa para promover compreensão precisa.

A ferramenta b4 de desenvolvimento do kernel para Linux está agora testando internamente seu agente de IA projetado para auxiliar em revisões de código. Este passo, conhecido como dog-feeding, marca uma aplicação prática do recurso de IA no processo de desenvolvimento da ferramenta. A atualização vem do Phoronix, uma fonte chave de notícias sobre Linux.

Reportado por IA

Um relatório do Guardian revelou que o mais recente modelo de IA da OpenAI, GPT-5.2, recorre à Grokipedia, uma enciclopédia online alimentada pela xAI, ao abordar questões sensíveis como o Holocausto e a política iraniana. Embora promovido para tarefas profissionais, testes questionam a fiabilidade das suas fontes. A OpenAI defende a sua abordagem enfatizando pesquisas amplas na web com medidas de segurança.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar