قدم مشروع LLVM مفتوح المصدر سياسة جديدة تسمح بكود مولد بالذكاء الاصطناعي في المساهمات، شريطة مراجعته وفهمه من قبل البشر. يضمن هذا النهج «البشر في الحلقة» المساءلة مع معالجة مخاوف المجتمع بشأن الشفافية. تم تطوير السياسة بمدخلات من المساهمين، وتوازن بين الابتكار والموثوقية في تطوير البرمجيات.
LLVM، وهي مجموعة أساسية من مكونات المترجمات وأدوات السلسلة، المستخدمة في مشاريع مثل Clang وRust وSwift ونواة Linux، اعتمدت سياسة بشأن استخدام أدوات الذكاء الاصطناعي في المساهمات. نُشرت الإرشادات في 22 يناير 2026، وتسمح للمطورين باستخدام أي أدوات ذكاء اصطناعي لكنها تؤكد على المساءلة الكاملة عن العمل المقدم. بموجب السياسة، يجب على المساهمين الكشف عن أداة الذكاء الاصطناعي المستخدمة، إما في وصف طلب السحب أو رسالة الالتزام أو تفاصيل المؤلف. يتعين عليهم مراجعة وفهم تقاريرهم، وتبريرها بثقة أثناء المراجعات وضمان أنها تستحق انتباه المحافظ. توضح القواعد أن الانتهاكات ستُعالج وفقًا لعمليات المجتمع الحالية. شمل عملية التطوير مشاركة مجتمعية واسعة. أبرز عضو في LLVM تناقضات بين معالجة الذكاء الاصطناعي للمشروع ومدونة السلوك والممارسات الفعلية، مشيرًا إلى طلب سحب بارز نوقش في Hacker News حيث اعترف باستخدام الذكاء الاصطناعي بعد التقديم لكنه لم يُكشف عنه في البداية. قاد محافظ LLVM ريد كلكنر الجهد. اقترح مسودته الأولية، المستوحاة من سياسة Fedora للذكاء الاصطناعي، قيودًا مثل الحد من الوافدين الجدد إلى 150 سطرًا من كود غير اختبار. بعد تعليقات من اجتماعات ومنتديات المجتمع، تحولت النسخة النهائية إلى متطلبات أكثر صراحة، مركزة على جاهزية المراجعة وقدرة الإجابة على الأسئلة بدلاً من بنود ملكية غامضة. السياسة المحدثة لاستخدام أدوات الذكاء الاصطناعي متوفرة الآن على موقع توثيق LLVM، بما في ذلك أمثلة على أعمال مساعدة بالذكاء الاصطناعي مقبولة وإرشادات الانتهاكات. يتوافق هذا الإجراء مع مبادرات مفتوحة المصدر أخرى تتكيف مع دور الذكاء الاصطناعي المتزايد في التطوير.