Un nuevo estudio ha demostrado que las regiones cerebrales que controlan las expresiones faciales en macacos trabajan juntas de maneras inesperadas, desafiando suposiciones previas sobre su división del trabajo. Investigadores liderados por Geena Ianni en la Universidad de Pensilvania utilizaron grabaciones neurales avanzadas para revelar cómo se codifican estos gestos. Los hallazgos podrían allanar el camino para futuras interfaces cerebro-computadora que decodifiquen señales faciales para pacientes con discapacidades neurológicas.
Los neurocientíficos han debatido durante mucho tiempo sobre cómo el cerebro genera expresiones faciales, asumiendo una clara división entre las áreas que manejan señales emocionales y aquellas que gestionan movimientos deliberados como hablar. Sin embargo, un estudio publicado en Science el 20 de enero de 2026 trastoca esta visión a través de experimentos en macacos, primates con una musculatura facial similar a la humana. Geena Ianni y su equipo en la Universidad de Pensilvania comenzaron escaneando los cerebros de los macacos con fMRI mientras filmaban sus rostros durante interacciones sociales. Los animales veían videos de otros macacos, avatares interactivos o compañeros en vivo, lo que provocaba expresiones naturales como chasquidos de labios para mostrar sumisión, caras de amenaza para disuadir a rivales y masticación neutral. Usando estos escaneos, los investigadores identificaron áreas clave del cerebro: la corteza motora primaria, la corteza premotora ventral, la corteza somatosensorial primaria y la corteza motora cingulada. Luego implantaron matrices de microelectrodos con precisión submilimétrica en estas regiones, el primer esfuerzo de este tipo para registrar múltiples neuronas durante la producción de gestos faciales. Contrario a las expectativas, las cuatro áreas se activaban para cada gesto, desde señales sociales hasta la masticación, en un patrón coordinado. «Esperábamos una división en la que la corteza cingulada gobernara las señales sociales, mientras que la corteza motora estuviera especializada en la masticación», señaló Ianni, pero los datos mostraron lo contrario. Un análisis adicional reveló códigos neurales distintos. La corteza cingulada emplea un patrón estático, persistente hasta 0,8 segundos, que probablemente integra el contexto social y la entrada sensorial. En contraste, las cortezas motora y somatosensorial utilizan códigos dinámicos con tasas de disparo que cambian rápidamente para controlar movimientos musculares precisos, como contracciones sutiles de los labios. «Lo estático significa que el patrón de disparo de las neuronas es persistente a través de múltiples repeticiones... y a lo largo del tiempo», explicó Ianni, sugiriendo que estabiliza la intención del gesto mientras las áreas dinámicas ejecutan los detalles. Este trabajo fundamental, detallado en la revista (doi.org/10.1126/science.aea0890), sienta las bases para prótesis neurales que restauren la comunicación facial en pacientes de accidente cerebrovascular o parálisis. Ianni se muestra optimista: «Espero que nuestro trabajo contribuya a habilitar... diseños de comunicación más naturalistas y ricos que mejoren vidas». Sin embargo, advierte que los dispositivos confiables aún están a años de distancia, similares a la tecnología temprana de decodificación del habla de los años 90.