LLVM menerapkan kebijakan AI yang mengharuskan pengawasan manusia

Proyek open-source LLVM telah memperkenalkan kebijakan baru yang mengizinkan kode yang dihasilkan AI dalam kontribusi, asalkan ditinjau dan dipahami oleh manusia. Pendekatan 'human in the loop' ini memastikan akuntabilitas sambil mengatasi kekhawatiran komunitas tentang transparansi. Kebijakan ini, yang dikembangkan dengan masukan dari kontributor, menyeimbangkan inovasi dengan keandalan dalam pengembangan perangkat lunak.

LLVM, kumpulan komponen compiler dan toolchain mendasar yang digunakan dalam proyek seperti Clang, Rust, Swift, dan kernel Linux, telah mengadopsi kebijakan tentang penggunaan alat AI dalam kontribusi. Diterbitkan pada 22 Januari 2026, pedoman ini mengizinkan pengembang menggunakan alat AI apa pun tetapi menekankan akuntabilitas penuh atas pekerjaan yang diajukan. Di bawah kebijakan tersebut, kontributor harus mengungkapkan alat AI yang digunakan, baik dalam deskripsi pull request, pesan commit, atau detail kepenulisan. Mereka diwajibkan meninjau dan memahami pengajuan mereka, dengan yakin membenarkannya selama review dan memastikan layak mendapat perhatian maintainer. Aturan tersebut menjelaskan bahwa pelanggaran akan ditangani sesuai proses komunitas yang ada. Proses pengembangan melibatkan keterlibatan komunitas yang luas. Seorang anggota LLVM menyoroti ketidaksesuaian antara penanganan AI proyek, kode etik, dan praktik aktual, merujuk pada pull request terkenal yang dibahas di Hacker News di mana penggunaan AI diakui setelah pengajuan tetapi tidak diungkapkan awalnya. Maintainer LLVM Reid Kleckner memimpin upaya tersebut. Draf awalnya, terinspirasi dari kebijakan AI Fedora, mengusulkan pembatasan seperti membatasi pendatang baru hingga 150 baris kode non-tes. Setelah umpan balik dari pertemuan dan forum komunitas, versi akhir beralih ke persyaratan yang lebih eksplisit, fokus pada kesiapan review dan kemampuan menjawab pertanyaan daripada klausul kepemilikan yang samar. Kebijakan Penggunaan Alat AI yang diperbarui kini tersedia di situs dokumentasi LLVM, termasuk contoh pekerjaan bantuan AI yang dapat diterima dan pedoman pelanggaran. Langkah ini menyelaraskan LLVM dengan inisiatif open-source lainnya yang beradaptasi dengan peran AI yang semakin besar dalam pengembangan.

Artikel Terkait

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Gambar dihasilkan oleh AI

Linux Foundation meluncurkan Agentic AI Foundation

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Linux Foundation telah meluncurkan Agentic AI Foundation untuk mendorong kolaborasi terbuka pada sistem AI otonom. Perusahaan teknologi besar, termasuk Anthropic, OpenAI, dan Block, menyumbangkan proyek open-source kunci untuk mempromosikan interoperabilitas dan mencegah vendor lock-in. Inisiatif ini bertujuan menciptakan standar netral untuk agen AI yang dapat membuat keputusan dan menjalankan tugas secara independen.

Linus Torvalds, pencipta kernel Linux, mengkritik upaya untuk membuat aturan bagi pengiriman kode yang dihasilkan AI, menyebutnya sia-sia. Dalam email baru-baru ini, ia berargumen bahwa kebijakan semacam itu tidak akan menghalangi kontributor jahat dan mendesak fokus pada kualitas kode. Sikap ini menyoroti ketegangan berkelanjutan dalam pengembangan open-source terkait alat kecerdasan buatan.

Dilaporkan oleh AI

Komunitas pengembang Linux telah beralih dari perdebatan tentang peran AI menjadi mengintegrasikannya ke dalam proses rekayasa kernel. Pengembang kini menggunakan AI untuk pemeliharaan proyek, meskipun pertanyaan tentang menulis kode dengannya tetap ada. Kekhawatiran tentang hak cipta dan lisensi open-source tetap ada.

Alat pengembangan kernel b4 untuk Linux kini sedang menguji agen AI secara internal yang dirancang untuk membantu tinjauan kode. Langkah ini, yang dikenal sebagai dog-feeding, menandai aplikasi praktis fitur AI dalam proses pengembangan alat tersebut. Pembaruan ini berasal dari Phoronix, sumber utama berita Linux.

Dilaporkan oleh AI

OpenClaw, an open-source AI project formerly known as Moltbot and Clawdbot, has surged to over 100,000 GitHub stars in less than a week. This execution engine enables AI agents to perform actions like sending emails and managing calendars on users' behalf within chat interfaces. Its rise highlights potential to simplify crypto usability while raising security concerns.

Bandcamp telah melarang musik yang dihasilkan sepenuhnya atau sebagian besar oleh AI di platformnya, bertujuan melindungi elemen manusia dalam penciptaan musik. Kebijakan yang diumumkan pada 14 Januari 2026 ini memungkinkan pengguna menandai konten AI yang dicurigai untuk ditinjau dan dihapus. Langkah ini kontras dengan layanan streaming lain yang bergulat dengan banjir trek buatan AI.

Dilaporkan oleh AI

Music labels and tech companies are addressing the unauthorized use of artists' work in training AI music generators like Udio and Suno. Recent settlements with major labels aim to create new revenue streams, while innovative tools promise to remove unlicensed content from AI models. Artists remain cautious about the technology's impact on their livelihoods.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak