Une nouvelle étude a montré que les régions cérébrales contrôlant les expressions faciales chez les macaques fonctionnent ensemble de manières inattendues, remettant en question les hypothèses antérieures sur leur division du travail. Des chercheurs dirigés par Geena Ianni à l’Université de Pennsylvanie ont utilisé des enregistrements neuronaux avancés pour révéler comment ces gestes sont encodés. Les résultats pourraient ouvrir la voie à de futures interfaces cerveau-ordinateur qui décodent les signaux faciaux pour les patients atteints de troubles neurologiques.
Les neuroscientifiques se sont longtemps interrogés sur la manière dont le cerveau produit les expressions faciales, supposant une nette division entre les zones gérant les signaux émotionnels et celles contrôlant les mouvements délibérés comme la parole. Cependant, une étude publiée dans Science le 20 janvier 2026 renverse cette vision à travers des expériences sur des macaques, primates dotés d’une musculature faciale similaire à celle des humains. Geena Ianni et son équipe à l’Université de Pennsylvanie ont commencé par scanner les cerveaux des macaques avec l’IRMf tout en filmant leurs visages lors d’interactions sociales. Les animaux visionnaient des vidéos d’autres macaques, des avatars interactifs ou des compagnons en direct, provoquant des expressions naturelles telles que le claquement des lèvres pour montrer la soumission, des visages menaçants pour dissuader les rivaux et une mastication neutre. À partir de ces scans, les chercheurs ont identifié les zones cérébrales clés : le cortex moteur primaire, le cortex prémoteur ventral, le cortex somatosensoriel primaire et le cortex moteur cingulaire. Ils ont ensuite implanté des réseaux de microélectrodes avec une précision submillimétrique dans ces régions — la première tentative de ce type pour enregistrer plusieurs neurones pendant la production de gestes faciaux. Contrairement aux attentes, les quatre zones s’activaient pour chaque geste, des signaux sociaux à la mastication, selon un schéma coordonné. « Nous pensions à une division où le cortex cingulaire régit les signaux sociaux, tandis que le cortex moteur est spécialisé dans la mastication », a noté Ianni, mais les données ont montré le contraire. Une analyse plus approfondie a révélé des codes neuronaux distincts. Le cortex cingulaire utilise un schéma statique, persistant jusqu’à 0,8 seconde, intégrant probablement le contexte social et les entrées sensorielles. En revanche, les cortex moteur et somatosensoriel emploient des codes dynamiques avec des taux de décharge variant rapidement pour contrôler des mouvements musculaires précis, comme des contractions labiales subtiles. « Le statique signifie que le schéma de décharge des neurones est persistant à travers plusieurs répétitions... et dans le temps », a expliqué Ianni, suggérant qu’il stabilise l’intention du geste tandis que les zones dynamiques exécutent les détails. Ce travail fondamental, détaillé dans la revue (doi.org/10.1126/science.aea0890), pose les bases de prothèses neurales pour restaurer la communication faciale chez les patients victimes d’AVC ou de paralysie. Ianni reste optimiste : « J’espère que notre travail contribuera à permettre... des conceptions de communication plus naturalistes et riches qui amélioreront les vies. » Elle met toutefois en garde que des dispositifs fiables sont encore à plusieurs années, à l’image des technologies précoces de décodage de la parole des années 1990.