El proyecto del kernel de Linux ha documentado oficialmente su política sobre las contribuciones de código asistido por IA con el lanzamiento de Linux 7.0. Las directrices exigen responsabilidad humana, la divulgación del uso de herramientas de IA y una nueva etiqueta 'Assisted-by' para los parches que involucren IA. Sasha Levin formalizó el consenso alcanzado en la Cumbre de Mantenedores de 2025.
En la Cumbre de Mantenedores de 2025, Sasha Levin abogó por reglas claras sobre el uso de herramientas de IA en el desarrollo del kernel. La política resultante enfatiza que los revisores humanos deben asumir plena responsabilidad por cualquier código generado por IA, asegurando el cumplimiento de la licencia GPL-2.0-only. No se aceptan envíos generados puramente por máquinas, y los agentes de IA no pueden autorizar parches utilizando etiquetas 'Signed-off-by', ya que el Certificado de Origen del Desarrollador exige responsabilidad humana por cada contribución. Levin se comprometió a documentar estos principios sin medidas de aplicación forzosa, y las nuevas directrices para 'Asistentes de codificación de IA' ahora aparecen en la documentación del proceso del kernel junto con otras reglas de contribución. Esta política se basa en debates anteriores, donde Linus Torvalds cuestionó la necesidad de una etiqueta dedicada, sugiriendo que los registros de cambios eran suficientes. Sin embargo, la comunidad optó por la etiqueta 'Assisted-by', con el formato 'Assisted-by: AGENT_NAME:MODEL_VERSION [TOOL1] [TOOL2]'. Un ejemplo proporcionado es 'Assisted-by: Claude:claude-3-opus coccinelle sparse' para parches que utilizan múltiples herramientas. Greg Kroah-Hartman, el mantenedor del kernel estable, ya ha aplicado este enfoque en su rama 'clanker'. Utilizó pruebas de fuzzing asistidas por IA en el código ksmbd y SMB, identificó problemas y envió correcciones con instrucciones para que los revisores las verifiquen de forma independiente. En comparación, Gentoo prohibió las contribuciones generadas por IA en 2024 debido a problemas de derechos de autor, calidad y ética, mientras que NetBSD etiqueta el código de LLM como 'contaminado', lo que requiere la aprobación del desarrollador principal. Linux mantiene una postura más permisiva, confiando en que los humanos validen los resultados de la IA.