Investigadores descubren ocho mapas cerebrales que vinculan la visión con el tacto

Neurocientíficos han identificado ocho mapas similares al cuerpo en la corteza visual que reflejan la organización de las sensaciones táctiles, permitiendo al cerebro sentir físicamente lo que ve en otros. Este descubrimiento, basado en escáneres cerebrales durante la visualización de películas, mejora la comprensión de la empatía y promete tratamientos para el autismo y avances en IA. Los hallazgos se publicaron en Nature.

Un equipo de investigadores, liderado por Nicholas Hedger de la Universidad de Reading y Tomas Knapen del Netherlands Institute for Neuroscience y la Vrije Universiteit Amsterdam, exploró cómo el cerebro traduce señales visuales en sensaciones táctiles. En colaboración con científicos del Reino Unido, Estados Unidos y las instituciones VU y NIN (KNAW) de Ámsterdam, analizaron datos de fMRI funcional de participantes que veían clips de películas como The Social Network e Inception. Este enfoque capturó respuestas cerebrales naturales, revelando cómo el procesamiento visual se integra con sensaciones corporales.

El estudio identificó ocho mapas distintos en la corteza visual que se alinean con la disposición de la corteza somatosensorial de cabeza a pies para el tacto. Estos mapas permiten al cerebro interpretar las acciones, lesiones o emociones de otros como si las experimentara directamente. «Encontramos no uno, ni dos, ¡sino ocho mapas notablemente similares en la corteza visual!», dijo Knapen. «Encontrar tantos demuestra lo fuertemente que el cerebro visual habla el lenguaje del tacto».

Cada mapa probablemente cumple roles únicos, como identificar partes del cuerpo o sus posiciones espaciales, con activaciones que varían según el enfoque. Por ejemplo, observar una acción de la mano podría activar un mapa, mientras que evaluar la postura o expresiones activa otro. «Cada vez que miras a una persona, hay muchas traducciones corporales diferentes que deben realizarse visualmente», explicó Knapen. «Creemos que estos mapas son un ingrediente fundamental en ese proceso exacto».

Los mapas superpuestos permiten un procesamiento de información flexible. «Esto permite al cerebro tener muchos tipos de información en un solo espacio y realizar una traducción de cualquier manera relevante en ese momento», señaló Knapen.

Las implicaciones se extienden a campos clínicos y tecnológicos. Estos mapas podrían ayudar en la investigación de psicología social y autismo, donde este procesamiento puede fallar. «Las personas con autismo pueden tener dificultades con este tipo de procesamiento», dijo Knapen. «Tener esta información podría ayudarnos a identificar mejores tratamientos efectivos».

En neurotecnología, los hallazgos sugieren métodos de entrenamiento más amplios para interfaces cerebro-computadora más allá de movimientos simples. Para la IA, incorporar dimensiones corporales podría enriquecer sistemas basados en texto y video. «Este aspecto de la experiencia humana es un área fantástica para el desarrollo de IA», enfatizó Knapen, destacando las sinergias entre neurociencia e inteligencia artificial.

La investigación, detallada en Nature (DOI: 10.1038/s41586-025-09796-0), subraya un elemento central de la empatía humana.

Artículos relacionados

Illustration of a brain connectivity map from an Ohio State University study, showing neural patterns predicting cognitive activities, for a news article on neuroscience findings.
Imagen generada por IA

Estudio mapea cómo la conectividad cerebral predice la actividad en funciones cognitivas

Reportado por IA Imagen generada por IA Verificado por hechos

Científicos de The Ohio State University han trazado cómo los patrones de cableado cerebral pueden predecir la actividad vinculada a muchas funciones mentales en todo el cerebro. Cada región muestra una “huella de conectividad” distinta ligada a roles como el lenguaje y la memoria. Los hallazgos revisados por pares en Network Neuroscience ofrecen una base para estudiar cerebros de adultos jóvenes sanos y para comparaciones con condiciones neurológicas o psiquiátricas.

Investigadores del Karolinska Institutet han identificado cómo las oscilaciones alfa en el cerebro ayudan a distinguir el cuerpo de los alrededores. Ritmos alfa más rápidos permiten una integración precisa de señales visuales y táctiles, fortaleciendo la sensación de yo corporal. Los hallazgos, publicados en Nature Communications, podrían informar tratamientos para condiciones como la esquizofrenia y mejorar diseños de prótesis.

Reportado por IA

Un nuevo estudio ha demostrado que las regiones cerebrales que controlan las expresiones faciales en macacos trabajan juntas de maneras inesperadas, desafiando suposiciones previas sobre su división del trabajo. Investigadores liderados por Geena Ianni en la Universidad de Pensilvania utilizaron grabaciones neurales avanzadas para revelar cómo se codifican estos gestos. Los hallazgos podrían allanar el camino para futuras interfaces cerebro-computadora que decodifiquen señales faciales para pacientes con discapacidades neurológicas.

Científicos del Allen Institute y la Universidad de Electro-Comunicaciones de Japón han creado uno de los modelos virtuales más detallados del córtex de ratón hasta la fecha, simulando aproximadamente 9 millones de neuronas y 26 mil millones de sinapsis en 86 regiones en el superordenador Fugaku.

Reportado por IA Verificado por hechos

Investigadores detrás de una nueva revisión en Frontiers in Science argumentan que el rápido progreso en inteligencia artificial y tecnologías cerebrales está superando la comprensión científica de la conciencia, aumentando el riesgo de errores éticos y legales. Dicen que desarrollar pruebas basadas en evidencia para detectar la consciencia —ya sea en pacientes, animales o sistemas artificiales y cultivados en laboratorio emergentes— podría transformar la medicina, los debates sobre el bienestar y la gobernanza tecnológica.

Un nuevo estudio informa que, a medida que las personas escuchan una historia hablada, la actividad neural en regiones clave del lenguaje se desarrolla con el tiempo de una manera que refleja los cálculos capa por capa dentro de los modelos de lenguaje grandes. Los investigadores, que analizaron grabaciones de electrocorticografía de pacientes epilépticos durante un podcast de 30 minutos, también publicaron un conjunto de datos abierto destinado a ayudar a otros científicos a probar teorías competidoras sobre cómo se construye el significado en el cerebro.

Reportado por IA Verificado por hechos

Investigadores de la Universidad de Ginebra han descubierto que regiones específicas de la corteza auditiva humana responden de manera particularmente intensa a las vocalizaciones de chimpancés en comparación con las de otros primates, incluidos bonobos y macacos. El trabajo, publicado como preimpresión revisada en eLife, sugiere que las áreas del cerebro humano implicadas en el procesamiento de voces también están afinadas a ciertos llamados de primates no humanos, reflejando raíces evolutivas y acústicas compartidas.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar