Le projet Fedora Linux a formellement approuvé une nouvelle politique autorisant les contributions assistées par l'IA à sa base de code. Annoncée par Aoife Moloney sur le tableau de discussion Fedora, la politique met l'accent sur la responsabilité et la transparence tout en fixant des limites à l'utilisation de l'IA. Ce développement fait suite à des discussions similaires dans des projets open source connexes comme Mesa.
Le Conseil Fedora a récemment approuvé la dernière version de la politique des Contributions Assistées par l'IA, comme annoncé par Aoife Moloney sur le tableau de discussion Fedora. Cette politique permet aux contributeurs d'utiliser des outils d'IA pour les projets Fedora, à condition de respecter les principes spécifiques décrits dans le document.
Sous la politique, intitulée 'Politique des Contributions Assistées par l'IA de Fedora', les principes clés incluent :
- Responsabilité : Les contributeurs doivent assumer la pleine responsabilité de leurs soumissions, en garantissant la qualité, la conformité aux licences et l'utilité. La politique stipule : 'Toutes les contributions, qu'elles proviennent d'un auteur humain ou assistées par des modèles de langage de grande taille (LLM) ou d'autres outils d'IA générative, doivent respecter les normes du projet pour leur inclusion. Le contributeur est toujours l'auteur et est pleinement responsable de l'ensemble de ces contributions.' 
- Transparence : L'utilisation significative de l'IA sans modifications doit être divulguée, tandis que d'autres utilisations doivent être notées si cela est utile. Les tâches routinières comme les corrections grammaticales et orthographiques ne nécessitent pas de divulgation. Pour les contributions suivies par git, les divulgations utilisent un trailer de message de commit 'Assisted-by :', comme 'Assisted-by : chatbot LLM générique' ou 'Assisted-by : ChatGPTv5.' 
- Évaluation des Contributions & de la Communauté : L'IA peut assister les examinateurs humains dans l'analyse et les suggestions, mais ne peut pas servir de juge unique pour les jugements substantiels ou les décisions sur le statut communautaire. Les outils automatisés pour la validation objective, comme les pipelines CI/CD, restent autorisés, avec une responsabilité finale sur les humains. 
La politique exclut les initiatives à grande échelle qui pourraient modifier les opérations du projet, nécessitant des discussions séparées avec le Conseil Fedora. Les préoccupations concernant les violations doivent être signalées via des tickets privés au Conseil.
Cette approbation s'aligne sur une mise à jour récente des directives pour les contributeurs des pilotes graphiques Mesa, qui mentionne l'IA, bien que les débats sur l'autorisation de telles contributions dans Mesa se poursuivent.