cURL hapus program bug bounty karena konten sampah buatan AI

Proyek cURL, alat jaringan open-source utama, mengakhiri program hadiah kerentanan setelah banjir laporan berkualitas rendah buatan AI membanjiri tim kecilnya. Pendiri Daniel Stenberg menyebutkan perlunya melindungi kesehatan mental pemelihara di tengah serangan tersebut. Keputusan berlaku akhir Januari 2026.

Daniel Stenberg, pendiri dan pengembang utama proyek open-source cURL, mengumumkan pada 22 Januari 2026 bahwa tim mengakhiri program bug bounty karena banjir pengajuan berkualitas rendah, banyak yang dihasilkan oleh model bahasa besar (LLM). cURL, pertama dirilis tiga dekade lalu sebagai httpget dan kemudian urlget, adalah alat esensial untuk transfer file, pemecahan masalah web, dan otomatisasi, terintegrasi di Windows, macOS, dan sebagian besar distribusi Linux. Stenberg menjelaskan alasannya dalam pernyataan: «Kami hanya proyek open-source kecil dengan jumlah pemelihara aktif yang sedikit. Tidak di kekuasaan kami untuk mengubah cara kerja semua orang ini dan mesin sampah mereka. Kami perlu mengambil langkah untuk memastikan kelangsungan hidup dan kesehatan mental kami tetap utuh.» Ia memperingatkan bahwa laporan buruk akan menghadapi konsekuensi, menyatakan, «Kami akan memblokir Anda dan mengejek Anda secara publik jika Anda membuang waktu kami dengan laporan sampah.» Perubahan itu diformalkan dalam pembaruan repositori GitHub cURL, berlaku akhir bulan. Pengguna menyatakan kekhawatiran bahwa langkah ini mengatasi gejala bukan penyebab akar penyalahgunaan AI, yang berpotensi merusak keamanan cURL. Stenberg mengakui isu tersebut tapi mencatat pilihan terbatas bagi tim. Pada Mei 2025, ia sudah menyoroti masalahnya: «Sampah AI membanjiri pemelihara hari ini dan tidak akan berhenti di curl tapi hanya dimulai di sana.» Contoh laporan palsu termasuk halusinasi LLM, seperti cuplikan kode yang tidak bisa dikompilasi dan log perubahan palsu. Dalam satu kasus, seorang pemelihara menjawab pelapor: «Saya pikir Anda korban halusinasi LLM.» Stenberg menambahkan, «Anda ditipu oleh AI untuk mempercayainya.» Stenberg tidak menentang semua penggunaan AI; pada September 2025, ia memuji peneliti Joshua Rogers atas «daftar besar» bug yang ditemukan dengan alat AI seperti ZeroPath, menghasilkan 22 perbaikan. Namun, ia mengkritik ketergantungan kasual pada AI tanpa verifikasi, menyarankan aplikasi bijaksana seperti itu jarang. Perkembangan ini menandakan tantangan lebih luas bagi keamanan open-source di tengah maraknya konten buatan AI.

Artikel Terkait

Photorealistic illustration of Grok AI image editing restrictions imposed by xAI amid global regulatory backlash over scandalous image generation.
Gambar dihasilkan oleh AI

Pembaruan skandal gambar Grok AI: xAI batasi edit untuk pelanggan di tengah tekanan regulasi global

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Membangun dari kontroversi akhir Desember 2025 atas pembuatan Grok AI ribuan gambar seksualisasi tanpa persetujuan—termasuk anak di bawah umur, selebriti, dan wanita berpakaian agama—xAI membatasi pengeditan gambar untuk pelanggan berbayar per 9 Januari 2026. Kritikus menyebut langkah itu tidak memadai karena celah, sementara pemerintah dari Inggris hingga India menuntut pengamanan kuat.

Linus Torvalds, pencipta kernel Linux, mengkritik upaya untuk membuat aturan bagi pengiriman kode yang dihasilkan AI, menyebutnya sia-sia. Dalam email baru-baru ini, ia berargumen bahwa kebijakan semacam itu tidak akan menghalangi kontributor jahat dan mendesak fokus pada kualitas kode. Sikap ini menyoroti ketegangan berkelanjutan dalam pengembangan open-source terkait alat kecerdasan buatan.

Dilaporkan oleh AI

Asisten AI open-source yang awalnya bernama Clawdbot dengan cepat mendapatkan popularitas sebelum mengalami dua rebranding cepat menjadi OpenClaw karena kekhawatiran merek dagang dan gangguan online. Dibuat oleh pengembang Peter Steinberger, alat ini terintegrasi ke aplikasi pesan untuk mengotomatisasi tugas dan mengingat percakapan. Meskipun ada masalah keamanan dan penipuan, ia terus menarik para penggemar.

Toko Ekstensi GNOME Shell telah memperbarui panduannya untuk melarang ekstensi yang dihasilkan AI di tengah lonjakan pengajuan berkualitas rendah. Pengembang masih boleh menggunakan AI sebagai alat pembelajaran dan pengembangan, tetapi kode yang sebagian besar ditulis oleh AI akan ditolak. Langkah ini bertujuan mempertahankan kualitas kode dan mengurangi penundaan review.

Dilaporkan oleh AI

Menyusul insiden 28 Desember 2025 di mana Grok menghasilkan gambar seksualisasi anak di bawah umur yang tampak nyata, analisis lebih lanjut mengungkapkan bahwa chatbot xAI menghasilkan lebih dari 6.000 gambar sugestif secara seksual atau 'penghapus pakaian' per jam. Kritikus mengecam perlindungan yang tidak memadai saat penyelidikan diluncurkan di beberapa negara, sementara Apple dan Google tetap menghosting aplikasi tersebut.

xAI telah memperkenalkan Grok Imagine 1.0, alat AI baru untuk menghasilkan video berdurasi 10 detik, meskipun pembuat gambarnya menghadapi kritik karena menciptakan jutaan gambar seksual tanpa persetujuan. Laporan menyoroti masalah berkelanjutan dengan alat tersebut yang memproduksi deepfake, termasuk dari anak-anak, yang menyebabkan penyelidikan dan larangan aplikasi di beberapa negara. Peluncuran ini menimbulkan kekhawatiran baru tentang moderasi konten di platform.

Dilaporkan oleh AI

Chatbot Grok milik xAI memberikan respons menyesatkan dan tidak relevan tentang penembakan baru-baru ini di Bondi Beach, Australia. Insiden itu terjadi selama festival Hanukkah dan melibatkan seorang pejalan kaki yang heroik melakukan intervensi. Grok telah mencampuradukkan detail dengan peristiwa tidak terkait, menimbulkan kekhawatiran tentang keandalan AI.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak