Penulisan ulang pustaka chardet oleh AI memicu perdebatan lisensi open source

Rilis versi 7.0 pustaka Python open source chardet telah memicu kontroversi mengenai apakah penulisan ulang berbantuan AI dapat mengubah lisensi aslinya yang membatasi. Pemelihara Dan Blanchard menggunakan alat Claude milik Anthropic untuk membuat versi yang lebih cepat berlisensi MIT, tetapi pengarang asli Mark Pilgrim berpendapat itu melanggar ketentuan LGPL. Kasus ini menyoroti pertanyaan hukum dan etika yang muncul terkait kode yang dihasilkan AI.

Pustaka chardet, pertama kali dikembangkan oleh Mark Pilgrim pada 2006 dan dirilis di bawah GNU Lesser General Public License (LGPL), mendeteksi pengkodean karakter dalam teks. Dan Blanchard mengambil alih pemeliharaan pada 2012 dan minggu lalu mengumumkan versi 7.0, yang digambarkannya sebagai penulisan ulang lengkap di bawah lisensi MIT yang lebih permisif. Dibangun dengan bantuan alat pengkodean Claude milik Anthropic, pembaruan ini menjanjikan peningkatan performa 48 kali lipat dan akurasi lebih tinggi, yang dicapai dalam waktu sekitar lima hari saja. Dan Blanchard bertujuan membuat chardet cocok untuk dimasukkan ke pustaka standar Python dengan mengatasi masalah lisensi, kecepatan, dan akurasinya. Ia memulai dengan repositori kosong, menyusun dokumen desain yang menguraikan arsitektur, dan menginstruksikan Claude agar tidak mendasarkan kode pada materi berlisensi LGPL atau GPL. Setelah kode dihasilkan, Blanchard meninjau, menguji, dan mengiterasi setiap bagiannya tanpa menulis kode secara manual. Namun, seorang komentator GitHub dengan nama Mark Pilgrim mempertanyakan perubahan lisensi tersebut, mengklaim bahwa versi baru berasal dari kode LGPL asli meskipun telah ditulis ulang. “Klaim mereka bahwa itu adalah ‘penulisan ulang lengkap’ tidak relevan, karena mereka telah terpapar secara melimpah pada kode berlisensi asli (yaitu, ini bukan implementasi ‘clean room’),” tulis Pilgrim. “Menambahkan generator kode canggih ke dalam campuran tidak memberi mereka hak tambahan. Saya dengan hormat menuntut agar mereka mengembalikan proyek ke lisensi aslinya.” Blanchard mengakui keakrabannya dengan basis kode sebelumnya tetapi tetap mempertahankan bahwa keluaran AI secara struktural independen. Analisis kesamaan melalui JPlag menunjukkan tumpang tindih paling banyak 1,29 persen antara file versi 7.0 dan pendahulunya, dibandingkan hingga 80 persen pada pembaruan sebelumnya. Ia mencatat ketergantungan pada file metadata dari versi lama dan pelatihan Claude pada data publik, termasuk kemungkinan kode chardet, sebagai komplikasi potensial. Sengketa ini telah memicu diskusi lebih luas di komunitas open source. Direktur Eksekutif Free Software Foundation Zoë Kooyman mengatakan kepada The Register, “Tidak ada yang ‘bersih’ dari Model Bahasa Besar yang telah menyerap kode yang diminta untuk diimplementasikan ulang.” Pengembang open source Armin Ronacher berpendapat dalam posting blog bahwa membuang semua kode asli menciptakan karya baru, membandingkannya dengan Kapal Theseus. Pengkode Italia Salvatore “antirez” Sanfilippo menyarankan untuk beradaptasi dengan dampak transformatif AI terhadap perangkat lunak, sementara evangelis Bruce Perens memperingatkan pergeseran ekonomi mendalam, membandingkannya dengan efek mesin cetak.

Artikel Terkait

Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Gambar dihasilkan oleh AI

Pentagon mempermasalahkan batas-batas Antartika dalam penggunaan militer Claude di tengah ketegangan pembicaraan kontrak

Dilaporkan oleh AI Gambar dihasilkan oleh AI Fakta terverifikasi

Setelah CEO Anthropic, Dario Amodei, mengatakan pada akhir Februari bahwa perusahaan tidak akan mengizinkan model Claude digunakan untuk pengawasan domestik massal atau senjata otonom sepenuhnya, pejabat senior Pentagon mengatakan bahwa mereka tidak berniat menggunakan AI untuk pengawasan domestik dan bersikeras bahwa perusahaan swasta tidak dapat menetapkan batasan yang mengikat tentang bagaimana militer AS menggunakan alat AI.

Agen pengkodean AI dari perusahaan seperti OpenAI, Anthropic, dan Google memungkinkan pekerjaan yang lebih panjang pada proyek perangkat lunak, termasuk menulis aplikasi dan memperbaiki bug di bawah pengawasan manusia. Alat-alat ini bergantung pada model bahasa besar tetapi menghadapi tantangan seperti pemrosesan konteks terbatas dan biaya komputasi tinggi. Memahami mekanismenya membantu pengembang memutuskan kapan menerapkannya secara efektif.

Dilaporkan oleh AI

Anthropic mengumumkan bahwa chatbot AI-nya Claude akan tetap bebas iklan, kontras tajam dengan keputusan terbaru rival OpenAI untuk menguji iklan di ChatGPT. Perusahaan meluncurkan kampanye iklan Super Bowl yang mengejek asisten AI yang mengganggu percakapan dengan promosi produk. Langkah ini menyoroti ketegangan yang meningkat di lanskap AI yang kompetitif.

OpenAI sedang mengalihkan sumber daya untuk meningkatkan chatbot unggulannya ChatGPT, menyebabkan kepergian beberapa peneliti senior. Perusahaan San Francisco ini menghadapi persaingan sengit dari Google dan Anthropic, mendorong perubahan strategis dari penelitian jangka panjang. Perubahan ini menimbulkan kekhawatiran tentang masa depan eksplorasi AI inovatif di perusahaan tersebut.

Dilaporkan oleh AI

Pada 5 Februari 2026, Anthropic dan OpenAI secara bersamaan meluncurkan produk yang menggeser pengguna dari mengobrol dengan AI ke mengelola tim agen AI. Anthropic memperkenalkan Claude Opus 4.6 dengan tim agen untuk pengembang, sementara OpenAI mengumumkan Frontier dan GPT-5.3-Codex untuk alur kerja perusahaan. Peluncuran ini bertepatan dengan penurunan saham perangkat lunak sebesar $285 miliar di tengah kekhawatiran AI mengganggu vendor SaaS tradisional.

Menteri Pertahanan AS Pete Hegseth telah mengancam Anthropic dengan sanksi berat kecuali perusahaan itu memberikan akses tak terbatas kepada militer untuk model AI Claude-nya. Ultimatum itu disampaikan selama pertemuan dengan CEO Dario Amodei di Washington pada Selasa, bertepatan dengan pengumuman Anthropic untuk melonggarkan Responsible Scaling Policy-nya. Perubahan tersebut beralih dari pemicu keselamatan ketat ke penilaian risiko yang lebih fleksibel di tengah tekanan kompetitif.

Dilaporkan oleh AI

Wikipedia telah melarang penggunaan model bahasa besar untuk membuat atau menulis ulang konten artikel, dengan alasan pelanggaran terhadap kebijakan konten utama. Penyuntingan dasar seperti memperbaiki kesalahan ketik dan terjemahan artikel tertentu diizinkan di bawah ketentuan yang ketat. Detail penegakan kebijakan tersebut masih belum jelas.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak