Neurocientíficos han identificado ocho mapas similares al cuerpo en la corteza visual que reflejan la organización de las sensaciones táctiles, permitiendo al cerebro sentir físicamente lo que ve en otros. Este descubrimiento, basado en escáneres cerebrales durante la visualización de películas, mejora la comprensión de la empatía y promete tratamientos para el autismo y avances en IA. Los hallazgos se publicaron en Nature.
Un equipo de investigadores, liderado por Nicholas Hedger de la Universidad de Reading y Tomas Knapen del Netherlands Institute for Neuroscience y la Vrije Universiteit Amsterdam, exploró cómo el cerebro traduce señales visuales en sensaciones táctiles. En colaboración con científicos del Reino Unido, Estados Unidos y las instituciones VU y NIN (KNAW) de Ámsterdam, analizaron datos de fMRI funcional de participantes que veían clips de películas como The Social Network e Inception. Este enfoque capturó respuestas cerebrales naturales, revelando cómo el procesamiento visual se integra con sensaciones corporales.
El estudio identificó ocho mapas distintos en la corteza visual que se alinean con la disposición de la corteza somatosensorial de cabeza a pies para el tacto. Estos mapas permiten al cerebro interpretar las acciones, lesiones o emociones de otros como si las experimentara directamente. «Encontramos no uno, ni dos, ¡sino ocho mapas notablemente similares en la corteza visual!», dijo Knapen. «Encontrar tantos demuestra lo fuertemente que el cerebro visual habla el lenguaje del tacto».
Cada mapa probablemente cumple roles únicos, como identificar partes del cuerpo o sus posiciones espaciales, con activaciones que varían según el enfoque. Por ejemplo, observar una acción de la mano podría activar un mapa, mientras que evaluar la postura o expresiones activa otro. «Cada vez que miras a una persona, hay muchas traducciones corporales diferentes que deben realizarse visualmente», explicó Knapen. «Creemos que estos mapas son un ingrediente fundamental en ese proceso exacto».
Los mapas superpuestos permiten un procesamiento de información flexible. «Esto permite al cerebro tener muchos tipos de información en un solo espacio y realizar una traducción de cualquier manera relevante en ese momento», señaló Knapen.
Las implicaciones se extienden a campos clínicos y tecnológicos. Estos mapas podrían ayudar en la investigación de psicología social y autismo, donde este procesamiento puede fallar. «Las personas con autismo pueden tener dificultades con este tipo de procesamiento», dijo Knapen. «Tener esta información podría ayudarnos a identificar mejores tratamientos efectivos».
En neurotecnología, los hallazgos sugieren métodos de entrenamiento más amplios para interfaces cerebro-computadora más allá de movimientos simples. Para la IA, incorporar dimensiones corporales podría enriquecer sistemas basados en texto y video. «Este aspecto de la experiencia humana es un área fantástica para el desarrollo de IA», enfatizó Knapen, destacando las sinergias entre neurociencia e inteligencia artificial.
La investigación, detallada en Nature (DOI: 10.1038/s41586-025-09796-0), subraya un elemento central de la empatía humana.