Des chercheurs découvrent huit cartes cérébrales reliant vision et toucher

Des neuroscientifiques ont identifié huit cartes semblables au corps dans le cortex visuel qui reflètent l'organisation des sensations tactiles, permettant au cerveau de ressentir physiquement ce qu'il voit chez les autres. Cette découverte, basée sur des scans cérébraux pendant le visionnage de films, améliore la compréhension de l'empathie et promet des traitements pour l'autisme et des avancées en IA. Les résultats ont été publiés dans Nature.

Une équipe de chercheurs, dirigée par Nicholas Hedger de l'Université de Reading et Tomas Knapen de l'Institut néerlandais des neurosciences et de la Vrije Universiteit Amsterdam, a exploré comment le cerveau traduit les indices visuels en sensations tactiles. En collaboration avec des scientifiques du Royaume-Uni, des États-Unis et des institutions VU et NIN (KNAW) d'Amsterdam, ils ont analysé des données d'IRMf fonctionnelle de participants regardant des extraits de films comme The Social Network et Inception. Cette approche a capturé des réponses cérébrales naturelles, révélant comment le traitement visuel s'intègre aux sensations corporelles.

L'étude a identifié huit cartes distinctes dans le cortex visuel alignées sur la disposition de la cortex somatosensoriel de la tête aux pieds pour le toucher. Ces cartes permettent au cerveau d'interpréter les actions, blessures ou émotions des autres comme s'il les vivait directement. «Nous avons trouvé non pas une ou deux, mais huit cartes remarquablement similaires dans le cortex visuel !» a déclaré Knapen. «En découvrir autant montre à quel point le cerveau visuel parle fortement le langage du toucher. »

Chaque carte remplit probablement des rôles uniques, comme identifier des parties du corps ou leurs positions spatiales, avec une activation variant selon le focus. Par exemple, observer une action de la main pourrait activer une carte, tandis qu'évaluer la posture ou les expressions en active une autre. «Chaque fois que vous regardez une personne, il y a de nombreuses traductions corporelles différentes à effectuer visuellement,» a expliqué Knapen. «Nous pensons que ces cartes sont un ingrédient fondamental dans ce processus précis. »

Les cartes superposées permettent un traitement d'informations flexible. «Cela permet au cerveau d'avoir de nombreux types d'informations dans un seul espace, et de faire une traduction de toute manière pertinente à ce moment,» a noté Knapen.

Les implications s'étendent aux domaines cliniques et technologiques. Ces cartes pourraient aider les recherches en psychologie sociale et autisme, où un tel traitement peut échouer. «Les personnes autistes peuvent avoir du mal avec ce genre de traitement,» a dit Knapen. «Avoir ces informations pourrait nous aider à mieux identifier des traitements efficaces. »

En neurotechnologie, les résultats suggèrent des méthodes d'entraînement plus larges pour les interfaces cerveau-ordinateur au-delà des mouvements simples. Pour l'IA, intégrer des dimensions corporelles pourrait enrichir les systèmes basés sur du texte et de la vidéo. «Cet aspect de l'expérience humaine est un domaine fantastique pour le développement de l'IA,» a souligné Knapen, mettant en lumière les synergies entre neurosciences et intelligence artificielle.

La recherche, détaillée dans Nature (DOI: 10.1038/s41586-025-09796-0), souligne un élément central de l'empathie humaine.

Articles connexes

Illustration of a brain connectivity map from an Ohio State University study, showing neural patterns predicting cognitive activities, for a news article on neuroscience findings.
Image générée par IA

Étude cartographie comment la connectivité cérébrale prédit l'activité dans les fonctions cognitives

Rapporté par l'IA Image générée par IA Vérifié par des faits

Des scientifiques de The Ohio State University ont tracé comment les schémas de câblage cérébral peuvent prédire l'activité liée à de nombreuses fonctions mentales dans l'ensemble du cerveau. Chaque région montre une « empreinte de connectivité » distincte liée à des rôles tels que le langage et la mémoire. Les conclusions examinées par les pairs dans Network Neuroscience offrent une base pour étudier les cerveaux d'adultes jeunes en bonne santé et pour des comparaisons avec des conditions neurologiques ou psychiatriques.

Des chercheurs de l'Institut Karolinska ont identifié comment les oscillations alpha dans le cerveau aident à distinguer le corps des environs. Des rythmes alpha plus rapides permettent une intégration précise des signaux visuels et tactiles, renforçant le sentiment de soi corporel. Les résultats, publiés dans Nature Communications, pourraient informer les traitements de conditions comme la schizophrénie et améliorer les conceptions de prothèses.

Rapporté par l'IA

Une nouvelle étude a montré que les régions cérébrales contrôlant les expressions faciales chez les macaques fonctionnent ensemble de manières inattendues, remettant en question les hypothèses antérieures sur leur division du travail. Des chercheurs dirigés par Geena Ianni à l’Université de Pennsylvanie ont utilisé des enregistrements neuronaux avancés pour révéler comment ces gestes sont encodés. Les résultats pourraient ouvrir la voie à de futures interfaces cerveau-ordinateur qui décodent les signaux faciaux pour les patients atteints de troubles neurologiques.

Des scientifiques de l’Allen Institute et de l’Université des communications électriques du Japon ont construit l’un des modèles virtuels les plus détaillés du cortex de souris à ce jour, simulant environ 9 millions de neurones et 26 milliards de synapses dans 86 régions sur le superordinateur Fugaku.

Rapporté par l'IA Vérifié par des faits

Des chercheurs à l’origine d’une nouvelle revue dans Frontiers in Science soutiennent que les progrès rapides de l’intelligence artificielle et des technologies cérébrales dépassent la compréhension scientifique de la conscience, augmentant le risque d’erreurs éthiques et juridiques. Ils affirment que le développement de tests basés sur des preuves pour détecter la conscience — chez les patients, les animaux ou les systèmes artificiels et cultivés en laboratoire émergents — pourrait transformer la médecine, les débats sur le bien-être et la gouvernance technologique.

Une nouvelle étude rapporte que, lorsque les gens écoutent une histoire parlée, l'activité neuronale dans les régions clés du langage se déploie au fil du temps d'une manière qui reflète les calculs couche par couche à l'intérieur des grands modèles de langage. Les chercheurs, qui ont analysé des enregistrements d'électrocorticographie de patients épileptiques pendant un podcast de 30 minutes, ont également publié un ensemble de données ouvert destiné à aider d'autres scientifiques à tester des théories concurrentes sur la façon dont le sens est construit dans le cerveau.

Rapporté par l'IA Vérifié par des faits

Des chercheurs de l’Université de Genève ont découvert que des régions spécifiques du cortex auditif humain réagissent particulièrement fortement aux vocalisations de chimpanzés par rapport à celles d’autres primates, y compris les bonobos et les macaques. Ce travail, publié sous forme de prépublication revue sur eLife, suggère que les zones du cerveau humain impliquées dans le traitement des voix sont également accordées sur certains cris de primates non humains, reflétant des racines évolutives et acoustiques communes.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser