Estudio descubre la base neural de los gestos faciales de los macacos

Un nuevo estudio ha demostrado que las regiones cerebrales que controlan las expresiones faciales en macacos trabajan juntas de maneras inesperadas, desafiando suposiciones previas sobre su división del trabajo. Investigadores liderados por Geena Ianni en la Universidad de Pensilvania utilizaron grabaciones neurales avanzadas para revelar cómo se codifican estos gestos. Los hallazgos podrían allanar el camino para futuras interfaces cerebro-computadora que decodifiquen señales faciales para pacientes con discapacidades neurológicas.

Los neurocientíficos han debatido durante mucho tiempo sobre cómo el cerebro genera expresiones faciales, asumiendo una clara división entre las áreas que manejan señales emocionales y aquellas que gestionan movimientos deliberados como hablar. Sin embargo, un estudio publicado en Science el 20 de enero de 2026 trastoca esta visión a través de experimentos en macacos, primates con una musculatura facial similar a la humana. Geena Ianni y su equipo en la Universidad de Pensilvania comenzaron escaneando los cerebros de los macacos con fMRI mientras filmaban sus rostros durante interacciones sociales. Los animales veían videos de otros macacos, avatares interactivos o compañeros en vivo, lo que provocaba expresiones naturales como chasquidos de labios para mostrar sumisión, caras de amenaza para disuadir a rivales y masticación neutral. Usando estos escaneos, los investigadores identificaron áreas clave del cerebro: la corteza motora primaria, la corteza premotora ventral, la corteza somatosensorial primaria y la corteza motora cingulada. Luego implantaron matrices de microelectrodos con precisión submilimétrica en estas regiones, el primer esfuerzo de este tipo para registrar múltiples neuronas durante la producción de gestos faciales. Contrario a las expectativas, las cuatro áreas se activaban para cada gesto, desde señales sociales hasta la masticación, en un patrón coordinado. «Esperábamos una división en la que la corteza cingulada gobernara las señales sociales, mientras que la corteza motora estuviera especializada en la masticación», señaló Ianni, pero los datos mostraron lo contrario. Un análisis adicional reveló códigos neurales distintos. La corteza cingulada emplea un patrón estático, persistente hasta 0,8 segundos, que probablemente integra el contexto social y la entrada sensorial. En contraste, las cortezas motora y somatosensorial utilizan códigos dinámicos con tasas de disparo que cambian rápidamente para controlar movimientos musculares precisos, como contracciones sutiles de los labios. «Lo estático significa que el patrón de disparo de las neuronas es persistente a través de múltiples repeticiones... y a lo largo del tiempo», explicó Ianni, sugiriendo que estabiliza la intención del gesto mientras las áreas dinámicas ejecutan los detalles. Este trabajo fundamental, detallado en la revista (doi.org/10.1126/science.aea0890), sienta las bases para prótesis neurales que restauren la comunicación facial en pacientes de accidente cerebrovascular o parálisis. Ianni se muestra optimista: «Espero que nuestro trabajo contribuya a habilitar... diseños de comunicación más naturalistas y ricos que mejoren vidas». Sin embargo, advierte que los dispositivos confiables aún están a años de distancia, similares a la tecnología temprana de decodificación del habla de los años 90.

Artículos relacionados

MRI brain scan highlighting auditory cortex response to chimpanzee vocalizations, illustrating evolutionary shared voice processing with primates.
Imagen generada por IA

La zona de voz del cerebro humano muestra una respuesta selectiva a los llamados de chimpancés

Reportado por IA Imagen generada por IA Verificado por hechos

Investigadores de la Universidad de Ginebra han descubierto que regiones específicas de la corteza auditiva humana responden de manera particularmente intensa a las vocalizaciones de chimpancés en comparación con las de otros primates, incluidos bonobos y macacos. El trabajo, publicado como preimpresión revisada en eLife, sugiere que las áreas del cerebro humano implicadas en el procesamiento de voces también están afinadas a ciertos llamados de primates no humanos, reflejando raíces evolutivas y acústicas compartidas.

Neurocientíficos han identificado ocho mapas similares al cuerpo en la corteza visual que reflejan la organización de las sensaciones táctiles, permitiendo al cerebro sentir físicamente lo que ve en otros. Este descubrimiento, basado en escáneres cerebrales durante la visualización de películas, mejora la comprensión de la empatía y promete tratamientos para el autismo y avances en IA. Los hallazgos se publicaron en Nature.

Reportado por IA Verificado por hechos

Investigadores de la Universidad de Birmingham utilizaron captura de movimiento facial para comparar cómo adultos autistas y no autistas producen expresiones faciales de ira, felicidad y tristeza, encontrando diferencias consistentes en las características faciales enfatizadas. El trabajo, publicado en *Autism Research*, sugiere que algunos malentendidos sobre las emociones pueden provenir de estilos expresivos «desajustados» entre grupos en lugar de un problema unilateral.

Los investigadores han desarrollado un método no invasivo que utiliza escáneres cerebrales EEG para detectar intenciones de movimiento en personas con lesiones medulares. Al capturar señales del cerebro y potencialmente enrutarlas a estimuladores espinales, el enfoque busca evitar los nervios dañados. Aunque prometedor, la tecnología aún lucha con el control preciso, especialmente para las extremidades inferiores.

Reportado por IA Verificado por hechos

Un nuevo estudio informa que, a medida que las personas escuchan una historia hablada, la actividad neural en regiones clave del lenguaje se desarrolla con el tiempo de una manera que refleja los cálculos capa por capa dentro de los modelos de lenguaje grandes. Los investigadores, que analizaron grabaciones de electrocorticografía de pacientes epilépticos durante un podcast de 30 minutos, también publicaron un conjunto de datos abierto destinado a ayudar a otros científicos a probar teorías competidoras sobre cómo se construye el significado en el cerebro.

Los humanos son los únicos primates con mentón, una característica que ha desconcertado a los biólogos. Un nuevo análisis sugiere que surgió no para un propósito específico, sino como efecto secundario de otros cambios evolutivos. Los investigadores examinaron cientos de cráneos de simios para llegar a esta conclusión.

Reportado por IA Verificado por hechos

Científicos del Allen Institute y la Universidad de Electro-Comunicaciones de Japón han creado uno de los modelos virtuales más detallados del córtex de ratón hasta la fecha, simulando aproximadamente 9 millones de neuronas y 26 mil millones de sinapsis en 86 regiones en el superordenador Fugaku.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar