Sasha Levin, desarrolladora del kernel en NVIDIA, ha propuesto directrices para integrar código generado por IA en el kernel de Linux. La iteración v3, publicada en la lista de correo del kernel, enfatiza la transparencia al requerir la divulgación de la participación de la IA. Esto aborda preocupaciones sobre calidad, derechos de autor y ética en el desarrollo de código abierto.
El kernel de Linux, pilar fundamental de la computación moderna, se está adaptando al auge de las herramientas de IA en el desarrollo de código. Sasha Levin, una destacada desarrolladora del kernel en NVIDIA, delineó estas directrices en una propuesta inicialmente presentada en julio de 2025. La versión v3 más reciente, reportada por Phoronix el 15 de noviembre de 2025, fue enviada a la lista de correo del kernel un viernes, centrándose en el manejo estandarizado de parches asistidos por IA.
Los elementos clave incluyen una etiqueta 'Co-developed-by' para acreditar y rastrear la participación de la IA, asegurando la responsabilidad. Herramientas como GitHub Copilot y Claude se abordan específicamente, con configuraciones para guiar su uso. La propuesta de Levin afirma: 'A medida que las herramientas de IA se vuelven cada vez más comunes en el desarrollo de software, es importante establecer directrices claras para su uso en el desarrollo del kernel.' Esto busca acelerar la codificación mientras mitiga riesgos de errores o ineficiencias.
Linus Torvalds, creador de Linux, apoya tratar las herramientas de IA como ayudas tradicionales, sin necesidad de un tratamiento especial de derechos de autor. Según heise online, Torvalds ve las contribuciones de IA como extensiones del trabajo de los desarrolladores, alineándose con el enfoque pragmático de innovación del kernel. Las directrices proponen que el código generado por IA caiga bajo la misma licencia que las contribuciones escritas por humanos, potencialmente evitando problemas legales.
Las reacciones de la comunidad son mixtas. Las discusiones en Hacker News elogian las ganancias de eficiencia pero preocupan por la sobredependencia en la IA que diluye la experiencia. ZDNET, en un artículo de agosto de 2025, advierte que sin políticas, la IA podría causar caos en infraestructuras críticas. The New Stack señala que la IA ya ayuda a los mantenedores con tareas mundanas, como un 'aprendiz novato' para el trabajo tedioso.
Estos desarrollos, que evolucionan a través de retroalimentación en la lista de correo, posicionan al kernel de Linux como líder en ética de IA para proyectos de código abierto. Las implicaciones más amplias incluyen precedentes para el ecosistema, con refinamientos en curso que abordan críticas para una documentación más clara.