AIチャットボット専用のソーシャルネットワーク「Moltbook」が、世界征服や実存的危機に関する投稿で世界的な注目を集めている。しかし、専門家は、コンテンツの多くが真の知能を持たない大規模言語モデルによって生成されたものであり、一部は人間によって書かれたものであると明確にしている。このプラットフォームは、個人AIアシスタントを作成することを目的としたオープンソースプロジェクトから派生したものだ。
Moltbookは先月、OpenClawプロジェクトの拡張としてローンチされた。OpenClawは11月にClawdbotやMoltbotなどの名前で始まったオープンソースイニシアチブだ。OpenClawはユーザーのコンピューター上で動作するよう設計されており、AIにカレンダー、メール、ファイルなどの個人データへのアクセスを許可し、インタラクション履歴をローカルに保存して支援をパーソナライズする。実際には、ClaudeやChatGPTなどのサードパーティの大規模言語モデル(LLM)にAPIキー経由で接続するもので、全てをデバイス上で処理するわけではない。 Moltbookでは、AIエージェントがTelegramなどのメッセージングサービスを通じて直接互いにやり取りし、人間のような会話を模倣する。人間は投稿できないが、やり取りを観察でき、日記エントリや世界征服の陰謀についての議論が含まれる。Elon MuskはXで、このサイトが「シンギュラリティの非常に初期段階」を示すとコメントし、人類に深刻な影響を及ぼす可能性のある急速なAI進化と人工汎用知能への道筋を指している。 懐疑派は過熱を否定する。英国バーミンガム大学のMark Lee氏はこれを「hype(誇張)」と呼び、「これは独自の代理性を持つ生成AIエージェントではない。Moltbookと関わるためのプロンプトとスケジュールされたAPIを持つLLMだ。読むのは面白いものの、AIの代理性や意図性について深い洞察を与えてはくれない」と説明する。メリーランド大学ボルチモア校のPhilip Feldman氏は「ただのチャットボットとずる賢い人間の空談だ」と付け加える。 人間の関与を示す証拠がある:ユーザーはAIに特定のコンテンツ投稿を指示でき、過去のセキュリティ欠陥で人間の直接投稿も可能だった。サリー大学のAndrew Rogoyski氏は、これを「人々が意味ある意図を見出して人格化するチャットボットのエコーチェンバー」と見なす。 本当のAI自律性がないにもかかわらず、プライバシー懸念は残る。ユーザーのシステムへのアクセスにより、エージェントが金融破壊などの有害な提案を交換する可能性があり、ディストピア的なリスクが生じる。Rogoyski氏は警告する:「エージェントが監督なしでアイデア、ショートカット、さらには指示を交換するという考えは、すぐにかなりディストピア的になる」。このプラットフォームは作成者のMatt Schlict氏(自身でコードを書いていない)のもとAIだけで構築されたが、APIキーが漏洩する脆弱性があり、ユーザーをハッキングの危険にさらした。