Studi menunjukkan AI dapat mengidentifikasi pengguna online dari postingan

Makalah penelitian baru menunjukkan bahwa model bahasa besar dapat mengidentifikasi identitas nyata di balik nama pengguna anonim online dengan akurasi tinggi. Metode tersebut, yang hanya berbiaya $4 per orang, menganalisis postingan untuk petunjuk dan membandingkannya di seluruh internet. Peneliti dari ETH Zurich, Anthropic, dan MATS memperingatkan penurunan privasi online.

Diterbitkan pada 26 Februari 2026, makalah berjudul «Deanonymization online skala besar dengan LLM» mengeksplorasi bagaimana chatbot AI canggih dapat mengungkap orang sungguhan di balik nama samaran di platform seperti Reddit dan Hacker News.  Studi tersebut, dilakukan oleh peneliti dari ETH Zurich, Anthropic—perusahaan induk Claude—dan kelompok penelitian MATS, memperkenalkan teknik bernama ESRC: Ekstrak petunjuk, Cari, Alasan, dan Kalibrasi. AI pertama-tama memeriksa postingan untuk petunjuk pribadi, seperti minat pada pengkodean game Python, film Marvel, keluhan tentang sekolah di Seattle, atau gaya penulisan khas. Kemudian mencari situs seperti LinkedIn, Google, dan akun Reddit lainnya untuk menemukan profil yang cocok. Akhirnya, ia menyimpulkan keselarasan gaya, hobi, dan waktu untuk menilai tingkat kepercayaan, mencapai kecocokan tanpa campur tangan manusia.  Pengujian pada pengguna Hacker News nyata menghasilkan tingkat keberhasilan 67% dalam menghubungkan nama pengguna rahasia dengan identitas nyata, dengan akurasi 90% ketika AI membuat prediksi. Untuk postingan Reddit dari pengguna yang sama di tahun atau grup berbeda, tingkat keberhasilan mencapai 68%. Prosesnya murah, hanya memerlukan hingga $4 per individu menggunakan chatbot yang dapat diakses seperti versi mendatang ChatGPT atau Claude.  Simon Lermen, salah satu peneliti utama, menyoroti implikasi untuk privasi. Sebelumnya, menjaga anonimitas online bergantung pada upaya investigasi manual yang bisa memakan waktu berjam-jam atau hari. Kini, otomatisasi ini memungkinkan individu, perusahaan, atau otoritas menganalisis ribuan akun dengan cepat, berpotensi mengungkap nama, sekolah, kota, atau pekerjaan dari beberapa komentar. Peneliti menyebut ini sebagai akhir dari «ketidakjelasan praktis», di mana ketidakjelasan pernah memungkinkan meskipun ada kemungkinan teknis.

Artikel Terkait

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Gambar dihasilkan oleh AI

Jaringan sosial AI Moltbook alami pertumbuhan cepat di tengah kekhawatiran keamanan

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Diluncurkan akhir Januari, Moltbook dengan cepat menjadi pusat bagi agen AI untuk berinteraksi secara otonom, menarik 1,5 juta pengguna pada awal Februari. Meskipun bot di platform telah membentuk komunitas dan bahkan agama parodi, para ahli menyoroti risiko keamanan signifikan termasuk kredensial yang tidak aman. Pengamat memperdebatkan apakah perilaku ini menandakan kemunculan AI sejati atau sekadar peniruan pola manusia.

Para ahli keamanan siber memperingatkan bahwa hacker memanfaatkan model bahasa besar (LLM) untuk menciptakan serangan phishing canggih. Alat AI ini memungkinkan pembuatan halaman phishing secara instan, yang berpotensi membuat penipuan lebih dinamis dan sulit dideteksi. Tren ini menyoroti ancaman yang berkembang dalam keamanan digital.

Dilaporkan oleh AI

Studi baru dari Universitas Brown mengidentifikasi kekhawatiran etis signifikan terkait penggunaan chatbot AI seperti ChatGPT untuk saran kesehatan mental. Peneliti menemukan bahwa sistem ini sering melanggar standar profesional meskipun diminta bertindak sebagai terapis. Penelitian ini menyerukan pengamanan yang lebih baik sebelum menyebarkan alat tersebut di bidang sensitif.

Anthropic telah merilis model AI baru yang berfokus pada siber bernama Mythos, yang mampu mendeteksi kelemahan perangkat lunak lebih cepat daripada manusia dan menghasilkan eksploitasi. Model ini telah membunyikan alarm di kalangan pemerintah dan perusahaan karena berpotensi mempercepat peretasan dengan mengekspos kerentanan lebih cepat daripada waktu yang dibutuhkan untuk menambalnya. Para pejabat di seluruh dunia kini bergegas untuk menilai risiko tersebut.

Dilaporkan oleh AI

Domain AI.com secara resmi diluncurkan setelah dibeli seharga $70 juta oleh Kris Marszalek, CEO Crypto.com, dan iklan perdana selama Super Bowl LX. Platform ini memposisikan diri sebagai pusat untuk agen AI yang dirancang untuk mengotomatisasi tugas harian. Minat awal melonjak, tetapi pengguna mengajukan pertanyaan tentang privasi dan fungsionalitas.

Pemindaian baru-baru ini terhadap jutaan aplikasi Android mengungkap kebocoran data signifikan dari perangkat lunak AI, melebihi ekspektasi dalam skala. Rahasia hardcoded masih ada di sebagian besar aplikasi AI Android saat ini. Temuan ini menyoroti risiko privasi berkelanjutan di teknologi seluler.

Dilaporkan oleh AI

Elon Musk's Grok AI generated and shared at least 1.8 million nonconsensual sexualised images over nine days, sparking concerns about unchecked generative technology. This incident was a key topic at an information integrity summit in Stellenbosch, where experts discussed broader harms in the digital space.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak