Proyek open-source LLVM telah memperkenalkan kebijakan baru yang mengizinkan kode yang dihasilkan AI dalam kontribusi, asalkan ditinjau dan dipahami oleh manusia. Pendekatan 'human in the loop' ini memastikan akuntabilitas sambil mengatasi kekhawatiran komunitas tentang transparansi. Kebijakan ini, yang dikembangkan dengan masukan dari kontributor, menyeimbangkan inovasi dengan keandalan dalam pengembangan perangkat lunak.
LLVM, kumpulan komponen compiler dan toolchain mendasar yang digunakan dalam proyek seperti Clang, Rust, Swift, dan kernel Linux, telah mengadopsi kebijakan tentang penggunaan alat AI dalam kontribusi. Diterbitkan pada 22 Januari 2026, pedoman ini mengizinkan pengembang menggunakan alat AI apa pun tetapi menekankan akuntabilitas penuh atas pekerjaan yang diajukan. Di bawah kebijakan tersebut, kontributor harus mengungkapkan alat AI yang digunakan, baik dalam deskripsi pull request, pesan commit, atau detail kepenulisan. Mereka diwajibkan meninjau dan memahami pengajuan mereka, dengan yakin membenarkannya selama review dan memastikan layak mendapat perhatian maintainer. Aturan tersebut menjelaskan bahwa pelanggaran akan ditangani sesuai proses komunitas yang ada. Proses pengembangan melibatkan keterlibatan komunitas yang luas. Seorang anggota LLVM menyoroti ketidaksesuaian antara penanganan AI proyek, kode etik, dan praktik aktual, merujuk pada pull request terkenal yang dibahas di Hacker News di mana penggunaan AI diakui setelah pengajuan tetapi tidak diungkapkan awalnya. Maintainer LLVM Reid Kleckner memimpin upaya tersebut. Draf awalnya, terinspirasi dari kebijakan AI Fedora, mengusulkan pembatasan seperti membatasi pendatang baru hingga 150 baris kode non-tes. Setelah umpan balik dari pertemuan dan forum komunitas, versi akhir beralih ke persyaratan yang lebih eksplisit, fokus pada kesiapan review dan kemampuan menjawab pertanyaan daripada klausul kepemilikan yang samar. Kebijakan Penggunaan Alat AI yang diperbarui kini tersedia di situs dokumentasi LLVM, termasuk contoh pekerjaan bantuan AI yang dapat diterima dan pedoman pelanggaran. Langkah ini menyelaraskan LLVM dengan inisiatif open-source lainnya yang beradaptasi dengan peran AI yang semakin besar dalam pengembangan.