LLVM menerapkan kebijakan AI yang mengharuskan pengawasan manusia

Proyek open-source LLVM telah memperkenalkan kebijakan baru yang mengizinkan kode yang dihasilkan AI dalam kontribusi, asalkan ditinjau dan dipahami oleh manusia. Pendekatan 'human in the loop' ini memastikan akuntabilitas sambil mengatasi kekhawatiran komunitas tentang transparansi. Kebijakan ini, yang dikembangkan dengan masukan dari kontributor, menyeimbangkan inovasi dengan keandalan dalam pengembangan perangkat lunak.

LLVM, kumpulan komponen compiler dan toolchain mendasar yang digunakan dalam proyek seperti Clang, Rust, Swift, dan kernel Linux, telah mengadopsi kebijakan tentang penggunaan alat AI dalam kontribusi. Diterbitkan pada 22 Januari 2026, pedoman ini mengizinkan pengembang menggunakan alat AI apa pun tetapi menekankan akuntabilitas penuh atas pekerjaan yang diajukan. Di bawah kebijakan tersebut, kontributor harus mengungkapkan alat AI yang digunakan, baik dalam deskripsi pull request, pesan commit, atau detail kepenulisan. Mereka diwajibkan meninjau dan memahami pengajuan mereka, dengan yakin membenarkannya selama review dan memastikan layak mendapat perhatian maintainer. Aturan tersebut menjelaskan bahwa pelanggaran akan ditangani sesuai proses komunitas yang ada. Proses pengembangan melibatkan keterlibatan komunitas yang luas. Seorang anggota LLVM menyoroti ketidaksesuaian antara penanganan AI proyek, kode etik, dan praktik aktual, merujuk pada pull request terkenal yang dibahas di Hacker News di mana penggunaan AI diakui setelah pengajuan tetapi tidak diungkapkan awalnya. Maintainer LLVM Reid Kleckner memimpin upaya tersebut. Draf awalnya, terinspirasi dari kebijakan AI Fedora, mengusulkan pembatasan seperti membatasi pendatang baru hingga 150 baris kode non-tes. Setelah umpan balik dari pertemuan dan forum komunitas, versi akhir beralih ke persyaratan yang lebih eksplisit, fokus pada kesiapan review dan kemampuan menjawab pertanyaan daripada klausul kepemilikan yang samar. Kebijakan Penggunaan Alat AI yang diperbarui kini tersedia di situs dokumentasi LLVM, termasuk contoh pekerjaan bantuan AI yang dapat diterima dan pedoman pelanggaran. Langkah ini menyelaraskan LLVM dengan inisiatif open-source lainnya yang beradaptasi dengan peran AI yang semakin besar dalam pengembangan.

Artikel Terkait

Linus Torvalds, pencipta kernel Linux, mengkritik upaya untuk membuat aturan bagi pengiriman kode yang dihasilkan AI, menyebutnya sia-sia. Dalam email baru-baru ini, ia berargumen bahwa kebijakan semacam itu tidak akan menghalangi kontributor jahat dan mendesak fokus pada kualitas kode. Sikap ini menyoroti ketegangan berkelanjutan dalam pengembangan open-source terkait alat kecerdasan buatan.

Dilaporkan oleh AI

Komunitas pengembang Linux telah beralih dari perdebatan tentang peran AI menjadi mengintegrasikannya ke dalam proses rekayasa kernel. Pengembang kini menggunakan AI untuk pemeliharaan proyek, meskipun pertanyaan tentang menulis kode dengannya tetap ada. Kekhawatiran tentang hak cipta dan lisensi open-source tetap ada.

Proyek kernel Linux mulai menggunakan Sashiko, sebuah sistem berbasis AI, untuk meninjau patch secara otomatis. Alat berbasis LLM dan agen ini mengidentifikasi bug yang terlewatkan oleh peninjau manusia. Inisiatif ini bertujuan untuk meningkatkan kualitas dan pemeliharaan kode.

Dilaporkan oleh AI

Linus Torvalds, pencipta kernel Linux, dengan keras mengkritik diskusi tentang konten buatan AI dalam dokumentasi kernel. Ia menyebut pembicaraan tentang 'AI slop' tidak berguna dan bodoh. Komentar tersebut menyoroti ketegangan berkelanjutan seputar AI dalam pengembangan open source.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak