Moxie Marlinspike, créateur de l’application de messagerie Signal, a présenté Confer, un assistant IA open source conçu pour prioriser la confidentialité des utilisateurs dans les conversations avec des modèles de langage de grande taille. L’outil chiffre les données et interactions des utilisateurs afin que seuls les titulaires de compte y aient accès, les protégeant des opérateurs de plateformes, des hackers et des forces de l’ordre. Ce lancement répond aux préoccupations croissantes concernant la collecte de données sur les plateformes IA.
Moxie Marlinspike, connu sous son pseudonyme comme l’ingénieur derrière Signal Messenger, applique les leçons de la messagerie sécurisée à l’intelligence artificielle. Le 13 janvier 2026, Ars Technica a rapporté le lancement de Confer, un assistant IA open source qui garantit que les données des utilisateurs restent illisibles pour quiconque sauf le titulaire du compte. Le service s’exécute sur un logiciel open source vérifiable, avec des conversations chiffrées dans un environnement d’exécution de confiance (TEE) sur les serveurs. Les clés de chiffrement restent sur les appareils des utilisateurs, permettant un stockage et une synchronisation sécurisés entre appareils sans compromettre la confidentialité. Comme Signal, qui a simplifié le chiffrement de bout en bout pour la messagerie et empêché même les opérateurs d’accéder au contenu, Confer rend les interactions IA privées simples. Marlinspike a déclaré à Ars Technica : « Le caractère de l’interaction est fondamentalement différent car c’est une interaction privée. » Il a mis en avant des histoires d’utilisateurs ayant eu des « conversations qui changent la vie » rendues possibles par l’environnement sécurisé, où ils pouvaient partager librement des informations sensibles — contrairement aux plateformes comme ChatGPT. Les assistants IA actuels des grands fournisseurs, tels que ChatGPT d’OpenAI et Gemini de Google, font face à des critiques pour leurs pratiques de données. Les tribunaux peuvent exiger des journaux, y compris des chats supprimés, comme vu dans une décision de mai contre OpenAI. Le PDG Sam Altman a noté que même les sessions de psychothérapie pourraient ne pas rester privées. L’experte en confidentialité Em a décrit les modèles IA comme des « collecteurs de données inhérents », recueillant souvent des informations sans consentement clair pour l’entraînement et la monétisation. Les utilisateurs traitent fréquemment ces outils comme des confidents, partageant pensées et secrets personnels, ce que Marlinspike a comparé à « confesser dans un ‘lac de données’ ». Confer utilise des passkeys pour l’authentification — générant des paires de clés uniques de 32 octets stockées en toute sécurité sur les appareils, compatibles avec la biométrie comme les empreintes digitales ou les scans faciaux. Son interface simple déchiffre les chats en deux étapes, avec secret de session avancé pour protéger les sessions passées et futures si une clé est compromise. Les serveurs utilisent des TEE avec attestation à distance, vérifiable via des signatures numériques et un journal de transparence. Bien que des alternatives comme Lumo et Venice de Proton offrent chiffrement ou stockage local, elles diffèrent par leur complexité. Les grandes plateformes proposent des opt-outs mais incluent des exceptions pour examen humain ou accès légal, rendant la confidentialité vulnérable face aux assignations et breaches. Confer, avec support natif sur macOS, iOS et Android récents (et extensions pour Windows et Linux), vise à établir un nouveau standard pour l’utilisation sécurisée de l’IA.