لقد وافق مشروع فيدرا لينكس رسميًا على سياسة جديدة تسمح بالمساهمات المدعومة بالذكاء الاصطناعي في قاعدة البرمجيات الخاصة به. أعلنت آويفي مولوني عن السياسة على لوحة مناقشات فيدرا، وتركز السياسة على المساءلة والشفافية مع وضع حدود لاستخدام الذكاء الاصطناعي. يأتي هذا التطور بعد مناقشات مشابهة في مشاريع مفتوحة المصدر ذات صلة مثل ميسا.
لقد وافق مجلس فيدرا مؤخرًا على النسخة الأحدث من سياسة المساهمات المدعومة بالذكاء الاصطناعي، كما أعلنت آويفي مولوني على لوحة مناقشات فيدرا. تسمح هذه السياسة للمساهمين باستخدام أدوات الذكاء الاصطناعي لمشاريع فيدرا، شريطة الالتزام بمبادئ محددة مذكورة في الوثيقة.
تحت السياسة، بعنوان 'سياسة مساهمات فيدرا المدعومة بالذكاء الاصطناعي'، تشمل المبادئ الرئيسية:
- المساءلة: يجب على المساهمين تحمل المسؤولية الكاملة عن تقديماتهم، مع التأكيد على الجودة والامتثال للتراخيص والفائدة. تنص السياسة: 'جميع المساهمات، سواء من مؤلف بشري أو مدعومة بنماذج لغة كبيرة (LLMs) أو أدوات ذكاء اصطناعي توليدية أخرى، يجب أن تلبي معايير المشروع للإدراج. المساهم هو دائمًا المؤلف ويحمل المسؤولية الكاملة عن كامل هذه المساهمات.' 
- الشفافية: يجب الكشف عن الاستخدام البارز للذكاء الاصطناعي دون تغييرات، بينما يجب الإشارة إلى الاستخدامات الأخرى حيث يكون ذلك مفيدًا. المهام الروتينية مثل تصحيحات النحو والإملاء لا تتطلب الكشف. بالنسبة للمساهمات المُتتبعة بـ git، يتم الكشف باستخدام trailer رسالة الالتزام 'Assisted-by:'، مثل 'Assisted-by: chatbot LLM عام' أو 'Assisted-by: ChatGPTv5.' 
- تقييم المساهمات والمجتمع: يمكن للذكاء الاصطناعي مساعدة مراجعي البشر في التحليل والاقتراحات لكنه لا يمكن أن يكون الحكم الوحيد للأحكام الجوهرية أو قرارات الوقوف في المجتمع. تظل الأدوات الآلية للتحقق الموضوعي، مثل خطوط CI/CD، مسموح بها، مع المساءلة النهائية على البشر. 
تستثني السياسة المبادرات واسعة النطاق التي قد تغير عمليات المشروع، مما يتطلب مناقشات منفصلة مع مجلس فيدرا. يجب الإبلاغ عن المخاوف بشأن الانتهاكات عبر تذاكر خاصة إلى المجلس.
يتوافق هذا الموافقة مع تحديث حديث لإرشادات مساهمي برامج تشغيل الرسومات ميسا، والتي تذكر الذكاء الاصطناعي، على الرغم من استمرار المناقشات حول السماح بمثل هذه المساهمات في ميسا.