AerynOS menolak penggunaan LLM dalam kontribusi karena kekhawatiran etis

AerynOS, distribusi Linux tahap alpha, telah menerapkan kebijakan yang melarang model bahasa besar dalam pengembangan dan aktivitas komunitasnya. Langkah ini mengatasi isu etis dengan data pelatihan, dampak lingkungan, dan risiko kualitas. Pengecualian terbatas pada kebutuhan terjemahan dan aksesibilitas.

AerynOS, distribusi Linux yang berfokus pada pembaruan atomik dan masih dalam tahap alpha, telah memperbarui pedoman kontribusinya untuk melarang penggunaan model bahasa besar (LLM) di seluruh proyek. Keputusan ini, yang diumumkan di Reddit, berlaku untuk semua aspek pengembangan dan keterlibatan komunitas, termasuk kode sumber, dokumentasi, laporan isu, dan seni. Kebijakan ini berasal dari beberapa kekhawatiran utama. Pengembang menyoroti masalah etis dengan cara LLM dilatih, termasuk sumber data. Mereka juga menunjukkan biaya lingkungan yang tinggi, seperti konsumsi listrik dan air berlebih yang terlibat dalam membangun dan mengoperasikan model ini. Selain itu, ada kekhawatiran bahwa konten yang dihasilkan LLM dapat menurunkan kualitas kontribusi secara keseluruhan dan menimbulkan isu hak cipta potensial. Meskipun larangan ini komprehensif, AerynOS mengizinkan pengecualian sempit. Kontributor hanya boleh menggunakan LLM untuk menerjemahkan teks ke bahasa Inggris untuk isu atau komentar. Proyek mungkin mempertimbangkan kelonggaran lebih lanjut untuk tujuan aksesibilitas. Untuk dukungan pengguna, tim menyarankan untuk tidak bergantung pada chatbot AI daripada dokumentasi resmi. Permintaan berdasarkan output LLM yang tidak akurat berisiko diabaikan, karena pemelihara bertujuan menghindari debugging kesalahan pihak ketiga. Kebijakan berorientasi masa depan ini bertujuan memastikan semua kontribusi menjalani tinjauan manusia, sehingga menjaga standar teknis dan keandalan proyek. Ini mencerminkan tren yang berkembang di kalangan inisiatif open source untuk mengawasi integrasi AI di tengah perdebatan lebih luas tentang implikasinya.

Artikel Terkait

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Gambar dihasilkan oleh AI

Linux Foundation meluncurkan Agentic AI Foundation

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Linux Foundation telah meluncurkan Agentic AI Foundation untuk mendorong kolaborasi terbuka pada sistem AI otonom. Perusahaan teknologi besar, termasuk Anthropic, OpenAI, dan Block, menyumbangkan proyek open-source kunci untuk mempromosikan interoperabilitas dan mencegah vendor lock-in. Inisiatif ini bertujuan menciptakan standar netral untuk agen AI yang dapat membuat keputusan dan menjalankan tugas secara independen.

Proyek open-source LLVM telah memperkenalkan kebijakan baru yang mengizinkan kode yang dihasilkan AI dalam kontribusi, asalkan ditinjau dan dipahami oleh manusia. Pendekatan 'human in the loop' ini memastikan akuntabilitas sambil mengatasi kekhawatiran komunitas tentang transparansi. Kebijakan ini, yang dikembangkan dengan masukan dari kontributor, menyeimbangkan inovasi dengan keandalan dalam pengembangan perangkat lunak.

Dilaporkan oleh AI

Linus Torvalds, pencipta kernel Linux, mengkritik upaya untuk membuat aturan bagi pengiriman kode yang dihasilkan AI, menyebutnya sia-sia. Dalam email baru-baru ini, ia berargumen bahwa kebijakan semacam itu tidak akan menghalangi kontributor jahat dan mendesak fokus pada kualitas kode. Sikap ini menyoroti ketegangan berkelanjutan dalam pengembangan open-source terkait alat kecerdasan buatan.

Linus Torvalds, pencipta kernel Linux, dengan keras mengkritik diskusi tentang konten buatan AI dalam dokumentasi kernel. Ia menyebut pembicaraan tentang 'AI slop' tidak berguna dan bodoh. Komentar tersebut menyoroti ketegangan berkelanjutan seputar AI dalam pengembangan open source.

Dilaporkan oleh AI

Sebuah komentar CNET berargumen bahwa menggambarkan AI memiliki kualitas seperti manusia seperti jiwa atau pengakuan menyesatkan publik dan mengikis kepercayaan terhadap teknologi. Ini menyoroti bagaimana perusahaan seperti OpenAI dan Anthropic menggunakan bahasa tersebut, yang menyamarkan isu nyata seperti bias dan keamanan. Artikel tersebut menyerukan terminologi yang lebih tepat untuk mendorong pemahaman yang akurat.

Alat pengembangan kernel b4 untuk Linux kini sedang menguji agen AI secara internal yang dirancang untuk membantu tinjauan kode. Langkah ini, yang dikenal sebagai dog-feeding, menandai aplikasi praktis fitur AI dalam proses pengembangan alat tersebut. Pembaruan ini berasal dari Phoronix, sumber utama berita Linux.

Dilaporkan oleh AI

Laporan Guardian mengungkapkan bahwa model AI terbaru OpenAI, GPT-5.2, mengambil dari Grokipedia, ensiklopedia daring berbasis xAI, saat membahas isu sensitif seperti Holocaust dan politik Iran. Meskipun dipromosikan untuk tugas profesional, pengujian mempertanyakan keandalan sumbernya. OpenAI membela pendekatannya dengan menekankan pencarian web luas dengan langkah keamanan.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak