وثق مشروع نواة لينكس رسمياً سياسته بشأن المساهمات البرمجية المساعدة بالذكاء الاصطناعي مع إصدار لينكس 7.0. تتطلب الإرشادات مسؤولية بشرية، والإفصاح عن استخدام أدوات الذكاء الاصطناعي، واستخدام وسم 'Assisted-by' الجديد للرقع البرمجية التي تشتمل على الذكاء الاصطناعي. وقد قام ساشا ليفين بإضفاء الطابع الرسمي على الإجماع الذي تم التوصل إليه في قمة مديري الصيانة لعام 2025.
في قمة مديري الصيانة لعام 2025، دعا ساشا ليفين إلى وضع قواعد واضحة بشأن أدوات الذكاء الاصطناعي في تطوير النواة. تؤكد السياسة الناتجة على أن المراجعين البشريين يجب أن يتحملوا المسؤولية الكاملة عن أي تعليمات برمجية تم إنشاؤها بواسطة الذكاء الاصطناعي، مما يضمن الامتثال لترخيص GPL-2.0-only. لا تُقبل الطلبات التي يتم إنشاؤها بالكامل بواسطة الآلة، ولا يمكن لوكلاء الذكاء الاصطناعي التوقيع على الرقع باستخدام وسوم 'Signed-off-by'، حيث تتطلب شهادة منشأ المطور مسؤولية بشرية عن كل مساهمة. التزم ليفين بتوثيق هذه المبادئ دون فرضها، وظهرت إرشادات 'مساعدي البرمجة بالذكاء الاصطناعي' الجديدة الآن في وثائق عمليات النواة إلى جانب قواعد المساهمة الأخرى. تعتمد هذه السياسة على مناقشات سابقة، حيث تساءل لينوس تورفالدس عن الحاجة إلى وسم مخصص، مشيراً إلى أن سجلات التغيير كافية. ومع ذلك، اختار المجتمع استخدام وسم 'Assisted-by'، المنسق كـ 'Assisted-by: AGENT_NAME:MODEL_VERSION [TOOL1] [TOOL2]'. ومن الأمثلة المقدمة 'Assisted-by: Claude:claude-3-opus coccinelle sparse' للرقع التي تستخدم أدوات متعددة. وقد طبق جريج كروه-هارتمان، مدير صيانة النواة المستقرة، هذا النهج بالفعل في فرع 'clanker' الخاص به. حيث استخدم أداة فحص آلية بمساعدة الذكاء الاصطناعي على كود ksmbd وSMB، وحدد المشكلات، وقدم إصلاحات مع تعليمات للمراجعين للتحقق منها بشكل مستقل. وبالمقارنة، حظرت جنتو (Gentoo) المساهمات التي تم إنشاؤها بواسطة الذكاء الاصطناعي في عام 2024 بسبب مشكلات تتعلق بحقوق النشر والجودة والأخلاقيات، بينما تصنف نت بي إس دي (NetBSD) كود نماذج اللغات الكبيرة (LLM) على أنه 'مشوب' ويتطلب موافقة المطورين الأساسيين. وتحافظ لينكس على موقف أكثر تساهلاً، حيث تعتمد على البشر للتحقق من مخرجات الذكاء الاصطناعي.