cURL hapus program bug bounty karena konten sampah buatan AI

Proyek cURL, alat jaringan open-source utama, mengakhiri program hadiah kerentanan setelah banjir laporan berkualitas rendah buatan AI membanjiri tim kecilnya. Pendiri Daniel Stenberg menyebutkan perlunya melindungi kesehatan mental pemelihara di tengah serangan tersebut. Keputusan berlaku akhir Januari 2026.

Daniel Stenberg, pendiri dan pengembang utama proyek open-source cURL, mengumumkan pada 22 Januari 2026 bahwa tim mengakhiri program bug bounty karena banjir pengajuan berkualitas rendah, banyak yang dihasilkan oleh model bahasa besar (LLM). cURL, pertama dirilis tiga dekade lalu sebagai httpget dan kemudian urlget, adalah alat esensial untuk transfer file, pemecahan masalah web, dan otomatisasi, terintegrasi di Windows, macOS, dan sebagian besar distribusi Linux. Stenberg menjelaskan alasannya dalam pernyataan: «Kami hanya proyek open-source kecil dengan jumlah pemelihara aktif yang sedikit. Tidak di kekuasaan kami untuk mengubah cara kerja semua orang ini dan mesin sampah mereka. Kami perlu mengambil langkah untuk memastikan kelangsungan hidup dan kesehatan mental kami tetap utuh.» Ia memperingatkan bahwa laporan buruk akan menghadapi konsekuensi, menyatakan, «Kami akan memblokir Anda dan mengejek Anda secara publik jika Anda membuang waktu kami dengan laporan sampah.» Perubahan itu diformalkan dalam pembaruan repositori GitHub cURL, berlaku akhir bulan. Pengguna menyatakan kekhawatiran bahwa langkah ini mengatasi gejala bukan penyebab akar penyalahgunaan AI, yang berpotensi merusak keamanan cURL. Stenberg mengakui isu tersebut tapi mencatat pilihan terbatas bagi tim. Pada Mei 2025, ia sudah menyoroti masalahnya: «Sampah AI membanjiri pemelihara hari ini dan tidak akan berhenti di curl tapi hanya dimulai di sana.» Contoh laporan palsu termasuk halusinasi LLM, seperti cuplikan kode yang tidak bisa dikompilasi dan log perubahan palsu. Dalam satu kasus, seorang pemelihara menjawab pelapor: «Saya pikir Anda korban halusinasi LLM.» Stenberg menambahkan, «Anda ditipu oleh AI untuk mempercayainya.» Stenberg tidak menentang semua penggunaan AI; pada September 2025, ia memuji peneliti Joshua Rogers atas «daftar besar» bug yang ditemukan dengan alat AI seperti ZeroPath, menghasilkan 22 perbaikan. Namun, ia mengkritik ketergantungan kasual pada AI tanpa verifikasi, menyarankan aplikasi bijaksana seperti itu jarang. Perkembangan ini menandakan tantangan lebih luas bagi keamanan open-source di tengah maraknya konten buatan AI.

Artikel Terkait

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Gambar dihasilkan oleh AI

Chinese cybersecurity agency warns of OpenClaw AI risks

Dilaporkan oleh AI Gambar dihasilkan oleh AI

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

Linux Foundation telah mendapatkan dana hibah sebesar $12,5 juta dari perusahaan-perusahaan AI untuk meningkatkan keamanan perangkat lunak sumber terbuka. Pendanaan ini ditujukan untuk para pengelola yang kewalahan dengan laporan kerentanan yang dihasilkan oleh AI. Dana ini akan dikelola oleh Alpha-Omega dan Open Source Security Foundation.

Dilaporkan oleh AI

Linus Torvalds, pencipta kernel Linux, mengkritik upaya untuk membuat aturan bagi pengiriman kode yang dihasilkan AI, menyebutnya sia-sia. Dalam email baru-baru ini, ia berargumen bahwa kebijakan semacam itu tidak akan menghalangi kontributor jahat dan mendesak fokus pada kualitas kode. Sikap ini menyoroti ketegangan berkelanjutan dalam pengembangan open-source terkait alat kecerdasan buatan.

Linus Torvalds, pencipta kernel Linux, dengan keras mengkritik diskusi tentang konten buatan AI dalam dokumentasi kernel. Ia menyebut pembicaraan tentang 'AI slop' tidak berguna dan bodoh. Komentar tersebut menyoroti ketegangan berkelanjutan seputar AI dalam pengembangan open source.

Dilaporkan oleh AI

Menyusul laporan sebelumnya tentang serangan langsung terhadap agen AI OpenClaw, TechRadar memperingatkan bahwa infostealer sekarang menyamar sebagai Claude Code, OpenClaw, dan alat pengembang AI lainnya. Pengguna harus berhati-hati dengan hasil mesin pencari. Diterbitkan 18 Maret 2026.

Linus Torvalds, pencipta Linux, telah beralih ke pengkodean berbantuan AI untuk proyek hobi, menandai perubahan dari kritiknya sebelumnya terhadap alat semacam itu. Pada Januari 2026, ia memperbarui repositori GitHub AudioNoise-nya, mengkreditkan Google Antigravity untuk menghasilkan kode Python untuk memvisualisasikan sampel audio. Langkah ini menyoroti peran AI dalam pengembangan eksperimental sementara ia fokus pada logika inti dalam C.

Dilaporkan oleh AI

Membangun dari kontroversi akhir Desember 2025 atas pembuatan Grok AI ribuan gambar seksualisasi tanpa persetujuan—termasuk anak di bawah umur, selebriti, dan wanita berpakaian agama—xAI membatasi pengeditan gambar untuk pelanggan berbayar per 9 Januari 2026. Kritikus menyebut langkah itu tidak memadai karena celah, sementara pemerintah dari Inggris hingga India menuntut pengamanan kuat.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak