Studi menunjukkan AI dapat mengidentifikasi pengguna online dari postingan

Makalah penelitian baru menunjukkan bahwa model bahasa besar dapat mengidentifikasi identitas nyata di balik nama pengguna anonim online dengan akurasi tinggi. Metode tersebut, yang hanya berbiaya $4 per orang, menganalisis postingan untuk petunjuk dan membandingkannya di seluruh internet. Peneliti dari ETH Zurich, Anthropic, dan MATS memperingatkan penurunan privasi online.

Diterbitkan pada 26 Februari 2026, makalah berjudul «Deanonymization online skala besar dengan LLM» mengeksplorasi bagaimana chatbot AI canggih dapat mengungkap orang sungguhan di balik nama samaran di platform seperti Reddit dan Hacker News.  Studi tersebut, dilakukan oleh peneliti dari ETH Zurich, Anthropic—perusahaan induk Claude—dan kelompok penelitian MATS, memperkenalkan teknik bernama ESRC: Ekstrak petunjuk, Cari, Alasan, dan Kalibrasi. AI pertama-tama memeriksa postingan untuk petunjuk pribadi, seperti minat pada pengkodean game Python, film Marvel, keluhan tentang sekolah di Seattle, atau gaya penulisan khas. Kemudian mencari situs seperti LinkedIn, Google, dan akun Reddit lainnya untuk menemukan profil yang cocok. Akhirnya, ia menyimpulkan keselarasan gaya, hobi, dan waktu untuk menilai tingkat kepercayaan, mencapai kecocokan tanpa campur tangan manusia.  Pengujian pada pengguna Hacker News nyata menghasilkan tingkat keberhasilan 67% dalam menghubungkan nama pengguna rahasia dengan identitas nyata, dengan akurasi 90% ketika AI membuat prediksi. Untuk postingan Reddit dari pengguna yang sama di tahun atau grup berbeda, tingkat keberhasilan mencapai 68%. Prosesnya murah, hanya memerlukan hingga $4 per individu menggunakan chatbot yang dapat diakses seperti versi mendatang ChatGPT atau Claude.  Simon Lermen, salah satu peneliti utama, menyoroti implikasi untuk privasi. Sebelumnya, menjaga anonimitas online bergantung pada upaya investigasi manual yang bisa memakan waktu berjam-jam atau hari. Kini, otomatisasi ini memungkinkan individu, perusahaan, atau otoritas menganalisis ribuan akun dengan cepat, berpotensi mengungkap nama, sekolah, kota, atau pekerjaan dari beberapa komentar. Peneliti menyebut ini sebagai akhir dari «ketidakjelasan praktis», di mana ketidakjelasan pernah memungkinkan meskipun ada kemungkinan teknis.

Artikel Terkait

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Gambar dihasilkan oleh AI

Moltbook AI social network sees rapid growth amid security concerns

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Launched in late January, Moltbook has quickly become a hub for AI agents to interact autonomously, attracting 1.5 million users by early February. While bots on the platform have developed communities and even a parody religion, experts highlight significant security risks including unsecured credentials. Observers debate whether these behaviors signal true AI emergence or mere mimicry of human patterns.

Cybersecurity experts warn that hackers are leveraging large language models (LLMs) to create sophisticated phishing attacks. These AI tools enable the generation of phishing pages on the spot, potentially making scams more dynamic and harder to detect. The trend highlights evolving threats in digital security.

Dilaporkan oleh AI

A new study from Brown University identifies significant ethical concerns with using AI chatbots like ChatGPT for mental health advice. Researchers found that these systems often violate professional standards even when prompted to act as therapists. The work calls for better safeguards before deploying such tools in sensitive areas.

The domain AI.com has officially launched following its $70 million purchase by Crypto.com CEO Kris Marszalek and a debut advertisement during Super Bowl LX. The platform positions itself as a hub for AI agents designed to automate daily tasks. Early interest surged, but users raised questions about privacy and functionality.

Dilaporkan oleh AI

Reddit users have proposed ideas to address the platform's bot problem. One suggestion described as 'the most lightweight way' involves using Face ID to prove users are human.

Elon Musk's Grok AI generated and shared at least 1.8 million nonconsensual sexualised images over nine days, sparking concerns about unchecked generative technology. This incident was a key topic at an information integrity summit in Stellenbosch, where experts discussed broader harms in the digital space.

Dilaporkan oleh AI

Chancellor Friedrich Merz criticized internet anonymity at an event in Trier and demanded real names. He warned of the dangers of artificial intelligence to free society and advocated restrictions on social media for minors.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak