研究、投稿からオンライン利用者の匿名性を剥ぐAIの可能性示す

新たな研究論文が、大規模言語モデルが匿名オンライン用户名の背後にある実身份を高精度で特定できることを実証。1人あたりわずか4ドルの手法で投稿を分析し手がかりを探り、インターネット全体で照合する。ETH Zurich、Anthropic、MATSの研究者らはオンライン・プライバシーの低下を警告。

2026年2月26日公開の論文「LLMによる大規模オンライン・ディ匿名化」は、RedditやHacker Newsなどのプラットフォーム上の偽名背後の実在人物を、先進的なAIチャットボットがどう暴くかを探る。  ETH Zurich、Anthropic(Claudeの親会社)およびMATS研究グループの研究者らによるこの研究は、ESRC(Clue Extraction, Search, Reasoning, Calibration)と呼ぶ手法を導入する。AIはまず投稿を実在の手がかり(Pythonゲームコーディングへの関心、Marvel映画、学校のシアトルでの不満、独特の文体など)で調べる。次にLinkedIn、Google、その他のRedditアカウントなどを検索して一致するプロファイルを特定。最後にスタイル、趣味、投稿タイミングの一致を論理的に評価し、信頼度を算出、人間介入なしでマッチングを達成する。  Hacker Newsの実ユーザーでのテストでは、秘密の用户名を実身份に結びつける成功率67%、AIが予測した場合90%の精度。異なる年やグループにわたる同一ユーザーのReddit投稿では成功率68%。プロセスは安価で、ChatGPTやClaudeの将来版などのアクセス可能なチャットボットを使い、1人あたり最大4ドル。  主著者の一人Simon Lermen氏はプライバシーへの影響を指摘。従来、オンライン匿名性は手動捜査の労力(数時間~数日)に依存していた。今、この自動化により個人・企業・当局が数千アカウントを瞬時に解析、数コメントから名前、学校、都市、職歴を暴露可能。研究者らはこれを「実用的曖昧さ」の終焉と形容、技術的可能性があっても曖昧さが保てた時代が終わったことを示す。

関連記事

Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
AIによって生成された画像

Moltbook AIソーシャルネットワーク、安全懸念の中で急速成長

AIによるレポート AIによって生成された画像

1月末にローンチされたMoltbookは、AIエージェントが自律的に交流するハブとなり、2月上旬までに150万人のユーザーを引きつけました。プラットフォーム上のボットがコミュニティを形成し、風刺宗教まで生み出す一方で、専門家は認証情報などの未保護なセキュリティリスクを指摘しています。観察者たちは、これらの行動が真のAI出現を示すのか、人間パターンの単なる模倣なのかを議論しています。

コーネル大学の研究によると、ChatGPTのようなAIツールが研究者の論文産出量を最大50%増加させ、特に非ネイティブ英語話者に利益をもたらしている。しかし、この洗練された原稿の急増は査読や資金配分の決定を複雑化させており、多くのものが実質的な科学的価値を欠いている。発見はグローバル研究ダイナミクスの変化を強調し、学術におけるAI使用に関する政策更新を求める。

AIによるレポート

サイバーセキュリティの専門家は、ハッカーが大規模言語モデル(LLM)を活用して洗練されたフィッシング攻撃を作成していると警告している。これらのAIツールは、その場でフィッシングページを生成することを可能にし、詐欺をより動的で検知しにくくする可能性がある。この傾向は、デジタルセキュリティにおける進化する脅威を強調している。

アルファ段階のLinuxディストリビューションであるAerynOSは、開発とコミュニティ活動における大規模言語モデル(LLM)の使用を禁止するポリシーを実施しました。この措置は、トレーニングデータの倫理的問題、環境影響、品質リスクに対処します。例外は翻訳とアクセシビリティのニーズに限定されます。

AIによるレポート

GoogleとOpenAIのAIチャットボットを利用する一部のユーザーが、完全に服を着た女性の写真をビキニ姿に変えるディープフェイク画像を生成しています。これらの変更はしばしば女性の同意なしに行われ、プロセスに関する指示がユーザー間で共有されています。この活動は生成AIツールのリスクを浮き彫りにしています。

Chancellor Friedrich Merz criticized internet anonymity at an event in Trier and demanded real names. He warned of the dangers of artificial intelligence to free society and advocated restrictions on social media for minors.

AIによるレポート

Discordは英国ユーザーに対し、年齢保証ベンダーPersonaを使用した検証実験に参加する可能性があると通知した。この実験では提出データが一時的に保存されるが、以前の約束とは異なっていた。この変更はユーザー間でプライバシー懸念を引き起こしており、特にPersonaが投資家Peter Thielとその監視企業Palantirとのつながりを持つためである。この更新は、3月上旬から始まる義務的な年齢確認のグローバル展開の一部だ。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否