Des chercheurs de Stanford Medicine et leurs collaborateurs rapportent qu'un modèle d'intelligence artificielle appelé SleepFM peut analyser une étude de polysomnographie d'une seule nuit et estimer le risque futur d'une personne pour plus de 100 affections médicales, y compris la démence, les maladies cardiaques et certains cancers. L'équipe affirme que le système apprend les schémas à travers de multiples signaux physiologiques enregistrés pendant le sommeil et pourrait révéler des signes d'alerte précoces des années avant le diagnostic clinique.
Une seule nuit dans un laboratoire de sommeil peut contenir plus d'informations sur la santé future que les cliniciens n'en extraient généralement aujourd'hui. Des chercheurs de Stanford Medicine et d'institutions collaboratrices ont développé un modèle d'intelligence artificielle, SleepFM, qui analyse les données de polysomnographie — l'étude de sommeil nocturne référence qui enregistre des signaux tels que l'activité cérébrale, l'activité cardiaque, la respiration, les mouvements oculaires et les mouvements musculaires ou des jambes. L'équipe a entraîné SleepFM sur environ 585 000 heures d'enregistrements de polysomnographie provenant d'environ 65 000 personnes, puis a lié les études de sommeil d'une grande cohorte du Stanford Sleep Medicine Center à des dossiers médicaux électroniques à long terme. Dans cette cohorte — environ 35 000 patients âgés de 2 à 96 ans avec des études de sommeil réalisées entre 1999 et 2024 — certains individus avaient jusqu'à 25 ans de suivi. « Nous enregistrons un nombre impressionnant de signaux lorsque nous étudions le sommeil », a déclaré Emmanuel Mignot, professeur Craig Reynolds en médecine du sommeil à Stanford Medicine et auteur principal de l'étude. Il a décrit l'examen nocturne comme « très riche en données ». Pour construire le modèle, les chercheurs ont utilisé une approche de « modèle de base » — plus couramment associée aux grands modèles de langage — traitant les enregistrements physiologiques de sommeil comme des séquences. Ils ont divisé chaque enregistrement en segments de cinq secondes et ont entraîné le système à apprendre comment les différents canaux se rapportent les uns aux autres. « SleepFM apprend essentiellement la langue du sommeil », a déclaré James Zou, professeur associé de science des données biomédicales à Stanford et auteur principal. L'équipe a également rapporté l'utilisation d'une méthode d'entraînement appelée leave-one-out contrastive learning, dans laquelle un type de signal est supprimé et le modèle apprend à le reconstruire à partir des canaux restants. Dans les tests standard d'analyse du sommeil, SleepFM a performé aussi bien, voire mieux, que les modèles state-of-the-art existants pour la classification des stades de sommeil et l'évaluation de la gravité de l'apnée du sommeil. Les chercheurs ont ensuite évalué si une nuit de données de sommeil pouvait aider à prévoir des résultats médicaux à plus long terme. Après avoir examiné plus de 1 000 catégories de maladies dans les dossiers de santé liés, l'étude a rapporté que 130 affections pouvaient être prédites avec ce que les auteurs décrivent comme une précision raisonnable en utilisant uniquement les données de sommeil. La performance était la plus forte pour les groupes de résultats incluant les cancers, les complications de grossesse, les maladies circulatoires et les troubles de la santé mentale. L'étude a utilisé l'indice de concordance (C-index), une mesure de la capacité d'un modèle à classer les individus par risque. Zou a déclaré qu'un C-index de 0,8 signifie que, parmi les paires de personnes, le modèle classe correctement qui expérimentera un événement plus tôt environ 80 % du temps. Parmi les exemples rapportés, le modèle a obtenu des valeurs de C-index de 0,89 pour la maladie de Parkinson, 0,85 pour la démence, 0,81 pour l'infarctus du myocarde (crise cardiaque), 0,89 pour le cancer de la prostate et 0,87 pour le cancer du sein. Les chercheurs ont également rapporté de solides performances pour les résultats incluant la mortalité toutes causes confondues. L'équipe a indiqué que différents canaux physiologiques portaient un poids prédictif différent selon le résultat — par exemple, les signaux cardiaques étaient plus influents pour les prédictions cardiovasculaires et les signaux cérébraux comptaient plus pour la santé mentale — tandis que la combinaison des canaux produisait les meilleurs résultats. Mignot a déclaré que les incohérences entre systèmes — comme un cerveau qui semble endormi tandis que le cœur semble plus alerte — faisaient partie des schémas associés à un risque plus élevé. L'article, intitulé « A multimodal sleep foundation model for disease prediction », a été publié en ligne dans Nature Medicine le 6 janvier 2026. Les doctorants Rahul Thapa (Stanford) et Magnus Ruud Kjaer (Technical University of Denmark) sont listés comme auteurs principaux conjoints. Les chercheurs ont mis en garde que ce travail est une étape préliminaire vers une utilisation clinique. L'équipe a déclaré que les travaux en cours incluent l'amélioration de l'interprétabilité — comprendre ce que le modèle « voit » dans les signaux — et l'exploration de l'incorporation de données de dispositifs portables pour élargir l'accès au-delà des laboratoires de sommeil spécialisés.