Monos controlan mundos virtuales con implantes cerebrales

Tres monos rhesus equipados con interfaces cerebro-computadora navegaron por entornos virtuales usando solo sus pensamientos. Los investigadores implantaron alrededor de 300 electrodos en áreas de la corteza motora y premotora para permitir este control. Los experimentos tienen como objetivo mejorar el control intuitivo para personas con parálisis.

Peter Janssen y sus colegas de la KU Leuven en Bélgica implantaron interfaces cerebro-computadora en tres monos rhesus. Cada mono recibió tres matrices de 96 electrodos, sumando un total de aproximadamente 300, colocados en la corteza motora primaria, la corteza premotora dorsal y la corteza premotora ventral. Estas áreas están relacionadas con la ejecución del movimiento y la planificación de alto nivel. Un modelo de inteligencia artificial decodificó las señales neuronales para dirigir avatares de realidad virtual en un monitor 3D que los monos observaban. Los animales controlaron una esfera a través de paisajes virtuales, avatares de monos animados desde una perspectiva de tercera persona similar a los videojuegos, e incluso navegaron por edificios virtuales abriendo puertas y moviéndose entre habitaciones. Janssen describió el método como más intuitivo que las interfaces cerebro-computadora (BCI, por sus siglas en inglés) anteriores, que a menudo requieren imaginar acciones físicas específicas como el movimiento de los dedos. “Por supuesto, no podemos preguntarle a estos monos, pero creemos que es una forma más intuitiva de controlar una computadora, básicamente”, dijo Janssen. Señaló que los usuarios de los sistemas actuales a veces comparan el proceso con “intentar mover las orejas”, una habilidad que puede tomar semanas dominar. Janssen cree que este enfoque podría ayudar a los humanos con parálisis a navegar por mundos virtuales o sillas de ruedas de manera más natural, aunque las ubicaciones de los implantes en humanos requieren más estudio. “Se necesita un poco de trabajo para saber exactamente dónde implantar a un humano... Pero una vez que lo descubramos, debería ser posible. De hecho, debería ser más fácil porque puedes explicarle al humano lo que se supone que debe hacer”, añadió. Andrew Jackson, de la Universidad de Newcastle, elogió la capacidad de los monos para adaptar el control a través de diferentes puntos de vista y contextos, sugiriendo que los implantes aprovechan las representaciones abstractas del movimiento en el cerebro. Los hallazgos aparecen en la revista Science Advances.

Artículos relacionados

VR study participant with AI prosthetic arm reaching naturally in one second, lab graphs highlighting optimal speed for body ownership.
Imagen generada por IA

VR study finds AI prosthetic arms feel most natural when a reach takes about one second

Reportado por IA Imagen generada por IA Verificado por hechos

AI-driven prosthetic arms may feel most like part of the body when their autonomous reaching motion lasts about one second, a virtual reality experiment reported in *Scientific Reports* suggests. In the study, that mid-range speed produced the highest ratings of body ownership, sense of control and usability, while very fast and very slow movements reduced acceptance and increased discomfort.

A new study has shown that the brain regions controlling facial expressions in macaques work together in unexpected ways, challenging prior assumptions about their division of labor. Researchers led by Geena Ianni at the University of Pennsylvania used advanced neural recordings to reveal how these gestures are encoded. The findings could pave the way for future brain-computer interfaces that decode facial signals for patients with neurological impairments.

Reportado por IA

Chinese scientists have drawn inspiration from the Japanese paper-cutting art of kirigami to develop stretchable microelectrode arrays, aiming to overcome limitations in electrode technology such as that used by Neuralink. These arrays were implanted into macaque monkeys, where they flexed with brain tissue to record hundreds of neurons simultaneously. The research was published in the February 5 issue of Nature Electronics.

A bonobo named Kanzi has demonstrated the ability to engage in make-believe play, a cognitive skill previously unseen in non-human primates. In experiments conducted shortly before his death, Kanzi participated in a pretend tea party involving imaginary juice and grapes. The findings suggest that our closest primate relatives possess the capacity for imagination.

Reportado por IA

Researchers at Korea University have developed a dual-output artificial synapse to boost the energy efficiency of multitasking AI systems, the university announced. The device emits both electrical and optical signals simultaneously to enable parallel processing. Tests showed up to 47 percent faster computation and energy use reduced by as much as 32 times compared to conventional GPU hardware.

Neuroscientists at Trinity College Dublin have found that babies as young as two months old can already sort visual information into categories like animals and toys. Using brain scans and AI, the study reveals early foundations of perception. This challenges previous assumptions about infant cognition.

Reportado por IA Verificado por hechos

Researchers at Johns Hopkins University report that Kanzi, a language-trained bonobo, followed pretend “tea party” scenarios by pointing to where an experimenter had acted as if imaginary juice and grapes were located. The work, published in Science, adds experimental evidence to a long-running debate over whether elements of pretense and imagination are unique to humans.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar