Signalメッセージングアプリの作成者であるMoxie Marlinspike氏が、大規模言語モデルとの会話でユーザーのプライバシーを優先するオープンソースのAIアシスタントConferを発表した。このツールは、ユーザーデータとやり取りを暗号化し、アカウント保有者のみがアクセス可能とし、プラットフォーム運営者、ハッカー、法執行機関から保護する。この発売は、AIプラットフォームでのデータ収集に対する懸念の高まりに対応する。
Signal Messengerの背後にあるエンジニアとして仮名で知られるMoxie Marlinspike氏は、安全なメッセージングの教訓を人工知能に適用している。2026年1月13日、Ars TechnicaはConferのデビューを報じた。これはオープンソースのAIアシスタントで、アカウント保有者以外にはユーザーデータが読めないことを保証する。サービスは検証可能なオープンソースソフトウェア上で動作し、会話はサーバーの信頼実行環境(TEE)で暗号化される。暗号鍵はユーザーのデバイスに留まり、デバイスの間の安全な保存と同期を可能にし、プライバシーを損なわない。Signalがメッセージングのエンドツーエンド暗号化を簡素化し、オペレーターさえコンテンツにアクセスできないようにしたように、ConferはプライベートなAIインタラクションを簡単にする。Marlinspike氏はArs Technicaに対し、「インタラクションの本質はプライベートなインタラクションであるため根本的に異なる」と語った。彼は、安全な環境で「人生を変える会話」を可能にし、敏感な情報を自由に共有できるユーザーストーリーを強調した。これはChatGPTのようなプラットフォームとは異なっている。主要プロバイダーの現在のAIアシスタント、OpenAIのChatGPTやGoogleのGeminiは、データ慣行に対する批判に直面している。裁判所はログを召喚可能で、削除されたチャットを含むもので、5月のOpenAIに対する判決で明らかになった。CEOのSam Altman氏は、心理療法セッションさえプライベートでない可能性を指摘した。プライバシー専門家のEm氏は、AIモデルを「本質的なデータ収集器」と形容し、明確な同意なしにトレーニングと収益化のために情報を収集すると述べた。ユーザーはこれらのツールを信頼できる相手として扱い、個人的な考えや秘密を共有し、Marlinspike氏はこれを「データレイクへの告白」に例えた。Conferは認証にpasskeyを使用し、デバイスに安全に保存されたユニークな32バイトの鍵ペアを生成し、指紋や顔認証などの生体認証をサポートする。シンプルなインターフェースは2ステップでチャットを復号し、鍵が侵害された場合の過去・将来のセッションを保護するフォワードシークレシーを持つ。サーバーはリモートアテステーション付きTEEを使用し、デジタル署名と透明性ログで検証可能。ProtonのLumoやVeniceのような代替案は暗号化やローカルストレージを提供するが、複雑さが異なる。大規模プラットフォームはオプトアウトを提供するが、人間レビューや法的アクセスへの例外があり、召喚や侵害でプライバシーが脆弱。macOS、iOS、Androidの最近のバージョンにネイティブサポート(WindowsとLinux用拡張)を持つConferは、安全なAI使用の新基準を目指す。