Investigadores de Stanford Medicine y colaboradores informan que un modelo de inteligencia artificial llamado SleepFM puede analizar un estudio de polisomnografía de una sola noche y estimar el riesgo futuro de una persona para más de 100 afecciones médicas, incluyendo demencia, enfermedades cardíacas y algunos cánceres. El equipo dice que el sistema aprende patrones a través de múltiples señales fisiológicas registradas durante el sueño y podría revelar señales de alerta temprana años antes del diagnóstico clínico.
Una sola noche en un laboratorio de sueño puede contener más información sobre la salud futura de lo que los clínicos extraen típicamente hoy en día. Investigadores de Stanford Medicine y instituciones colaboradoras han desarrollado un modelo de inteligencia artificial, SleepFM, que analiza datos de polisomnografía: el estudio de sueño nocturno gold-standard que registra señales como actividad cerebral, actividad cardíaca, respiración, movimientos oculares y movimientos musculares o de piernas. El equipo entrenó SleepFM con aproximadamente 585.000 horas de grabaciones de polisomnografía de unas 65.000 personas, y luego vinculó estudios de sueño de una gran cohorte del Stanford Sleep Medicine Center a registros electrónicos de salud a largo plazo. En esa cohorte —unos 35.000 pacientes de 2 a 96 años con estudios de sueño realizados entre 1999 y 2024— algunos individuos tenían hasta 25 años de seguimiento. «Registramos un número impresionante de señales cuando estudiamos el sueño», dijo Emmanuel Mignot, profesor Craig Reynolds en Medicina del Sueño en Stanford Medicine y autor principal del estudio. Describió el examen nocturno como «muy rico en datos». Para construir el modelo, los investigadores usaron un enfoque de «modelo fundacional» —más comúnmente asociado con modelos de lenguaje grandes— tratando las grabaciones fisiológicas de sueño como secuencias. Dividieron cada grabación en segmentos de cinco segundos y entrenaron el sistema para aprender cómo se relacionan diferentes canales entre sí. «SleepFM está esencialmente aprendiendo el lenguaje del sueño», dijo James Zou, profesor asociado de ciencia de datos biomédicos en Stanford y autor principal. El equipo también informó el uso de un método de entrenamiento llamado aprendizaje contrastivo leave-one-out, en el que se elimina un tipo de señal y el modelo aprende a reconstruirlo a partir de los canales restantes. En pruebas estándar de análisis de sueño, SleepFM rindió tan bien como o mejor que los modelos state-of-the-art existentes en la clasificación de etapas de sueño y la evaluación de la gravedad de la apnea del sueño. Los investigadores luego evaluaron si una noche de datos de sueño podía ayudar a predecir resultados médicos a más largo plazo. Tras revisar más de 1.000 categorías de enfermedades en registros de salud vinculados, el estudio informó que 130 afecciones podían predecirse con lo que los autores describen como precisión razonable usando solo datos de sueño. El rendimiento fue más fuerte para grupos de resultados que incluían cánceres, complicaciones del embarazo, enfermedades circulatorias y trastornos de salud mental. El estudio usó el índice de concordancia (C-index), una medida de qué tan bien un modelo clasifica a los individuos por riesgo. Zou dijo que un C-index de 0,8 significa que, entre pares de personas, el modelo clasifica correctamente quién experimentará un evento antes aproximadamente el 80% del tiempo. Entre los ejemplos reportados, el modelo alcanzó valores de C-index de 0,89 para la enfermedad de Parkinson, 0,85 para demencia, 0,81 para infarto de miocardio (ataque cardíaco), 0,89 para cáncer de próstata y 0,87 para cáncer de mama. Los investigadores también informaron un fuerte rendimiento para resultados que incluyen mortalidad por todas las causas. El equipo dijo que diferentes canales fisiológicos llevaban diferente peso predictivo dependiendo del resultado —por ejemplo, señales relacionadas con el corazón eran más influyentes para predicciones cardiovasculares y señales cerebrales importaban más para la salud mental— mientras que combinar canales producía los mejores resultados. Mignot dijo que desajustes entre sistemas —como un cerebro que parece dormido mientras el corazón parece más alerta— estaban entre los patrones asociados con mayor riesgo. El artículo, titulado «A multimodal sleep foundation model for disease prediction», se publicó en línea en Nature Medicine el 6 de enero de 2026. Los estudiantes de doctorado Rahul Thapa (Stanford) y Magnus Ruud Kjaer (Technical University of Denmark) figuran como autores principales conjuntos. Los investigadores advirtieron que el trabajo es un paso inicial hacia el uso clínico. El equipo dijo que el trabajo en curso incluye mejorar la interpretabilidad —entender qué está «viendo» el modelo en las señales— y explorar si enfoques similares podrían incorporar datos de dispositivos wearables para ampliar el acceso más allá de laboratorios de sueño especializados.