Kernel Linux adota diretrizes para código assistido por IA

O projeto do kernel Linux documentou oficialmente sua política sobre contribuições de código assistido por IA com o lançamento do Linux 7.0. As diretrizes exigem responsabilidade humana, divulgação do uso de ferramentas de IA e uma nova tag 'Assisted-by' para patches que envolvam IA. Sasha Levin formalizou o consenso alcançado no Encontro de Mantenedores de 2025.

No Encontro de Mantenedores de 2025, Sasha Levin defendeu regras claras sobre ferramentas de IA no desenvolvimento do kernel. A política resultante enfatiza que os revisores humanos devem assumir total responsabilidade por qualquer código gerado por IA, garantindo a conformidade com a licença GPL-2.0-only. Submissões puramente geradas por máquinas não são aceitas, e agentes de IA não podem assinar patches usando tags 'Signed-off-by', já que o Certificado de Origem do Desenvolvedor exige responsabilidade humana para cada contribuição. Levin comprometeu-se a documentar esses princípios sem imposição, e as novas diretrizes de 'Assistentes de Codificação de IA' agora aparecem na documentação de processos do kernel junto com outras regras de contribuição. Esta política baseia-se em discussões anteriores, nas quais Linus Torvalds questionou a necessidade de uma tag dedicada, sugerindo que changelogs seriam suficientes. No entanto, a comunidade optou pela tag 'Assisted-by', formatada como 'Assisted-by: NOME_DO_AGENTE:VERSÃO_DO_MODELO [FERRAMENTA1] [FERRAMENTA2]'. Um exemplo dado é 'Assisted-by: Claude:claude-3-opus coccinelle sparse' para patches que utilizam múltiplas ferramentas. Greg Kroah-Hartman, o mantenedor do kernel estável, já aplicou essa abordagem em seu branch 'clanker'. Ele utilizou fuzzing assistido por IA no código ksmbd e SMB, identificou problemas e enviou correções com instruções para que os revisores verifiquem de forma independente. Em comparação, o Gentoo baniu contribuições geradas por IA em 2024 devido a questões de direitos autorais, qualidade e ética, enquanto o NetBSD rotula códigos de LLMs como 'contaminados', exigindo aprovação de desenvolvedores principais. O Linux mantém uma postura mais permissiva, confiando nos humanos para validar a produção da IA.

Artigos relacionados

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Imagem gerada por IA

Linux Foundation announces AI security initiative with tech partners

Reportado por IA Imagem gerada por IA

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

Greg Kroah-Hartman, maintainer of the Linux kernel, stated that AI-driven code review tools have become genuinely useful. He told The Register that the technology reached an inflection point about a month ago, leading to actionable bug reports.

Reportado por IA

The open-source project LLVM has introduced a new policy allowing AI-generated code in contributions, provided humans review and understand the submissions. This 'human in the loop' approach ensures accountability while addressing community concerns about transparency. The policy, developed with input from contributors, balances innovation with reliability in software development.

The Linux kernel project has implemented a new protocol to ensure its survival if creator Linus Torvalds becomes unavailable. Titled the Linux Project Continuity Document, the plan outlines an emergency governance process activated in catastrophic scenarios. This measure addresses long-standing concerns about the project's reliance on a single key figure.

Reportado por IA

An AMD vice president has utilized AI to develop a Radeon Linux userland driver written in Python. A senior AI engineer involved in the project stated that he did not open a code editor once during the process. The tool used was Claude Code, which built a Radeon compute driver.

The upcoming Linux kernel version 7.1 will introduce restrictions on Intel Neural Processing Units (NPUs) to avoid exhaustion by individual programs. This change aims to manage resource usage more effectively. The update is reported by Phoronix, a site focused on Linux hardware and performance.

Reportado por IA

The Linux kernel community has endorsed a contingency plan to manage leadership transitions. This strategy aims to maintain stability in the event that founder Linus Torvalds steps down from his role.

segunda-feira, 13 de abril de 2026, 11:10h

Linux kernel 7.0 released with major hardware and storage upgrades

sexta-feira, 10 de abril de 2026, 14:10h

Greg Kroah-Hartman runs AI-assisted fuzzing on Linux kernel

terça-feira, 24 de março de 2026, 02:32h

Linux kernel project tests AI tool Sashiko for patch reviews

quinta-feira, 19 de março de 2026, 20:22h

Linux Foundation announces $12.5m for open source security

quinta-feira, 19 de fevereiro de 2026, 01:40h

AI uncovers 50-80x improvement in Linux's IO_uring

terça-feira, 17 de fevereiro de 2026, 04:15h

Linux Foundation report emphasizes open source AI in India

segunda-feira, 09 de fevereiro de 2026, 18:50h

Linus Torvalds signals Linux kernel 7.0 release is imminent

domingo, 01 de fevereiro de 2026, 17:39h

Linux b4 tool begins testing AI code review agent

domingo, 01 de fevereiro de 2026, 14:47h

Linux kernel community drafts succession plan for Linus Torvalds

quarta-feira, 28 de janeiro de 2026, 15:56h

Linux kernel community drafts contingency plan for replacing Linus Torvalds

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar