AI belum mampu membuat senjata biologis tapi risiko mengintai di depan

Para ahli berpendapat bahwa meskipun teknologi AI saat ini tidak dapat merancang senjata biologis mematikan secara independen, kemajuan cepat dalam kecerdasan buatan dan bioteknologi menimbulkan kekhawatiran serius di masa depan. Analisis New Scientist mengeksplorasi bagaimana alat AI seperti AlphaFold sedang mengubah biologi, berpotensi memungkinkan penyalahgunaan oleh aktor jahat. Langkah-langkah keamanan biologis harus berkembang untuk mengatasi ancaman baru ini.

Persimpangan antara kecerdasan buatan dan bioteknologi sedang mempercepat kemajuan ilmiah, tetapi juga memperkenalkan risiko terkait pengembangan senjata biologis. Menurut artikel terbaru di New Scientist, sistem AI belum cukup canggih untuk menciptakan patogen mematikan secara otonom. Namun, potensi penyalahgunaan di masa depan tidak bisa diabaikan.

AI sudah membuat kemajuan signifikan dalam biologi. Misalnya, AlphaFold dari DeepMind, yang diluncurkan pada 2020, memecahkan masalah lama prediksi struktur protein, memungkinkan peneliti merancang protein baru dengan kecepatan tak tertandingi. Alat ini telah mendemokratisasi akses ke data biologis kompleks, membantu penemuan obat dan pengembangan vaksin. Namun, kemampuan yang sama bisa dieksploitasi. Artikel tersebut mencatat bahwa AI bisa membantu merekayasa virus atau bakteri dengan virulensi yang ditingkatkan, meskipun model saat ini memerlukan pengawasan manusia dan kurang integrasi penuh yang diperlukan untuk pembuatan senjata biologis independen.

Para ahli keamanan biologis menekankan bahwa kekhawatiran utama bukan AI yang membangkang, melainkan manusia yang menggunakan AI untuk menurunkan hambatan bagi terorisme biologis. Studi 2023 oleh Centre for the Governance of AI menunjukkan bahwa model bahasa besar seperti GPT-4 bisa memberikan instruksi langkah demi langkah untuk mensintesis senjata kimia, mengungguli ahli kimia manusia dalam beberapa tugas. Memperluas ini ke biologi, AI mungkin mengoptimalkan urutan genetik untuk patogen, memudahkan non-ahli untuk memproduksi agen berbahaya.

Yoshua Bengio, peneliti AI terkemuka, memperingatkan dalam artikel: "Kita belum sampai di sana, tapi kita bisa segera sampai." Ia menyoroti sifat ganda penggunaan alat AI, yang bermanfaat bagi masyarakat sambil menimbulkan risiko. Demikian pula, bioetikus Kevin Esvelt menunjukkan bahwa model AI open-source bisa menyebar tanpa pengaman, memperbesar ancaman global.

Artikel tersebut memberikan konteks tentang upaya regulasi. Di AS, Konvensi Senjata Biologis kurang mekanisme penegakan, dan pedoman khusus AI masih dalam tahap awal. Perintah eksekutif administrasi Biden 2023 tentang keselamatan AI mencakup ketentuan untuk penelitian ganda penggunaan, tapi kerjasama internasional diperlukan. Para ahli menyerukan watermarking desain biologis yang dihasilkan AI dan membatasi akses ke model sensitif.

Meskipun tidak ada krisis segera, garis waktu untuk kekhawatiran singkat. Saat AI terintegrasi lebih dalam ke lab—dengan alat seperti Rosalind, AI untuk analisis DNA—langkah proaktif esensial. Artikel tersebut menyimpulkan bahwa kewaspadaan, bukan panik, harus memandu kebijakan, memastikan manfaat AI melebihi bahayanya.

Analisis ini menekankan perlunya perspektif seimbang: inovasi mendorong kemajuan, tapi kemajuan tak terkendali bisa memungkinkan penyalahgunaan katastrofik.

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak