Studi menunjukkan AI dapat mengidentifikasi pengguna online dari postingan

Makalah penelitian baru menunjukkan bahwa model bahasa besar dapat mengidentifikasi identitas nyata di balik nama pengguna anonim online dengan akurasi tinggi. Metode tersebut, yang hanya berbiaya $4 per orang, menganalisis postingan untuk petunjuk dan membandingkannya di seluruh internet. Peneliti dari ETH Zurich, Anthropic, dan MATS memperingatkan penurunan privasi online.

Diterbitkan pada 26 Februari 2026, makalah berjudul «Deanonymization online skala besar dengan LLM» mengeksplorasi bagaimana chatbot AI canggih dapat mengungkap orang sungguhan di balik nama samaran di platform seperti Reddit dan Hacker News.  Studi tersebut, dilakukan oleh peneliti dari ETH Zurich, Anthropic—perusahaan induk Claude—dan kelompok penelitian MATS, memperkenalkan teknik bernama ESRC: Ekstrak petunjuk, Cari, Alasan, dan Kalibrasi. AI pertama-tama memeriksa postingan untuk petunjuk pribadi, seperti minat pada pengkodean game Python, film Marvel, keluhan tentang sekolah di Seattle, atau gaya penulisan khas. Kemudian mencari situs seperti LinkedIn, Google, dan akun Reddit lainnya untuk menemukan profil yang cocok. Akhirnya, ia menyimpulkan keselarasan gaya, hobi, dan waktu untuk menilai tingkat kepercayaan, mencapai kecocokan tanpa campur tangan manusia.  Pengujian pada pengguna Hacker News nyata menghasilkan tingkat keberhasilan 67% dalam menghubungkan nama pengguna rahasia dengan identitas nyata, dengan akurasi 90% ketika AI membuat prediksi. Untuk postingan Reddit dari pengguna yang sama di tahun atau grup berbeda, tingkat keberhasilan mencapai 68%. Prosesnya murah, hanya memerlukan hingga $4 per individu menggunakan chatbot yang dapat diakses seperti versi mendatang ChatGPT atau Claude.  Simon Lermen, salah satu peneliti utama, menyoroti implikasi untuk privasi. Sebelumnya, menjaga anonimitas online bergantung pada upaya investigasi manual yang bisa memakan waktu berjam-jam atau hari. Kini, otomatisasi ini memungkinkan individu, perusahaan, atau otoritas menganalisis ribuan akun dengan cepat, berpotensi mengungkap nama, sekolah, kota, atau pekerjaan dari beberapa komentar. Peneliti menyebut ini sebagai akhir dari «ketidakjelasan praktis», di mana ketidakjelasan pernah memungkinkan meskipun ada kemungkinan teknis.

Artikel Terkait

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Gambar dihasilkan oleh AI

Jaringan sosial AI Moltbook alami pertumbuhan cepat di tengah kekhawatiran keamanan

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Diluncurkan akhir Januari, Moltbook dengan cepat menjadi pusat bagi agen AI untuk berinteraksi secara otonom, menarik 1,5 juta pengguna pada awal Februari. Meskipun bot di platform telah membentuk komunitas dan bahkan agama parodi, para ahli menyoroti risiko keamanan signifikan termasuk kredensial yang tidak aman. Pengamat memperdebatkan apakah perilaku ini menandakan kemunculan AI sejati atau sekadar peniruan pola manusia.

Studi Universitas Cornell mengungkapkan bahwa alat AI seperti ChatGPT telah meningkatkan output makalah peneliti hingga 50%, terutama menguntungkan penutur non-pribumi bahasa Inggris. Namun, lonjakan naskah yang dipoles ini menyulitkan peer review dan keputusan pendanaan, karena banyak yang kurang nilai ilmiah substansial. Temuan ini menyoroti pergeseran dinamika penelitian global dan menyerukan kebijakan terbaru tentang penggunaan AI di akademi.

Dilaporkan oleh AI

Para ahli keamanan siber memperingatkan bahwa hacker memanfaatkan model bahasa besar (LLM) untuk menciptakan serangan phishing canggih. Alat AI ini memungkinkan pembuatan halaman phishing secara instan, yang berpotensi membuat penipuan lebih dinamis dan sulit dideteksi. Tren ini menyoroti ancaman yang berkembang dalam keamanan digital.

AerynOS, distribusi Linux tahap alpha, telah menerapkan kebijakan yang melarang model bahasa besar dalam pengembangan dan aktivitas komunitasnya. Langkah ini mengatasi isu etis dengan data pelatihan, dampak lingkungan, dan risiko kualitas. Pengecualian terbatas pada kebutuhan terjemahan dan aksesibilitas.

Dilaporkan oleh AI

Beberapa pengguna chatbot AI dari Google dan OpenAI menghasilkan gambar deepfake yang mengubah foto wanita berpakaian lengkap menjadi mengenakan bikini. Modifikasi ini sering dilakukan tanpa persetujuan wanita tersebut, dan petunjuk prosesnya dibagikan di antara pengguna. Aktivitas ini menyoroti risiko pada alat AI generatif.

Chancellor Friedrich Merz criticized internet anonymity at an event in Trier and demanded real names. He warned of the dangers of artificial intelligence to free society and advocated restrictions on social media for minors.

Dilaporkan oleh AI

Discord has informed UK users that they may be part of an experiment using the age-assurance vendor Persona for verification, where submitted data is temporarily stored unlike previous promises. This change has raised privacy concerns among users, particularly due to Persona's links to investor Peter Thiel and his surveillance firm Palantir. The update is part of a broader global rollout of mandatory age verification starting in early March.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak