Estudio sugiere algoritmos inspirados en el cerebro para reducir el consumo energético de la IA

Investigadores de la Universidad de Purdue y el Instituto de Tecnología de Georgia han propuesto una nueva arquitectura informática para modelos de IA inspirada en el cerebro humano. Este enfoque busca abordar el problema de la 'pared de memoria' intensivo en energía en los sistemas actuales. El estudio, publicado en Frontiers in Science, destaca el potencial para una IA más eficiente en dispositivos cotidianos.

El rápido crecimiento de la IA ha agravado los desafíos en el diseño de computadoras, particularmente la separación entre procesamiento y memoria en los sistemas tradicionales. Un estudio publicado el lunes en la revista Frontiers in Science describe una solución inspirada en el cerebro para este problema. Dirigido por Kaushik Roy, profesor de ingeniería informática en la Universidad de Purdue, la investigación aboga por repensar la arquitectura de la IA para hacerla más eficiente energéticamente.

Las computadoras actuales siguen la arquitectura de von Neumann, desarrollada en 1945, que mantiene separadas la memoria y el procesamiento. Este diseño crea un cuello de botella conocido como la 'pared de memoria', un término acuñado por investigadores de la Universidad de Virginia en la década de 1990. A medida que los modelos de IA, especialmente los procesadores de lenguaje, han crecido 5000 veces en tamaño en los últimos cuatro años, la disparidad entre la velocidad de la memoria y la potencia de procesamiento se ha vuelto más apremiante. IBM enfatizó recientemente este problema en un informe.

La solución propuesta se inspira en el funcionamiento del cerebro, utilizando redes neuronales de picos (SNN). Estos algoritmos, antes criticados por ser lentos e imprecisos, han mejorado significativamente en los últimos años. Los investigadores abogan por 'compute-in-memory' (CIM), que integra el cómputo directamente en el sistema de memoria. Como se indica en el resumen del artículo, «CIM ofrece una solución prometedora al problema de la pared de memoria al integrar capacidades de cómputo directamente en el sistema de memoria».

Roy señaló: «Los modelos de procesamiento de lenguaje han crecido 5000 veces en tamaño en los últimos cuatro años. Esta expansión alarmantemente rápida hace crucial que la IA sea lo más eficiente posible. Eso significa repensar fundamentalmente cómo se diseñan las computadoras».

La coautora Tanvi Sharma, investigadora de Purdue, añadió: «La IA es una de las tecnologías más transformadoras del siglo XXI. Sin embargo, para sacarla de los centros de datos y llevarla al mundo real, necesitamos reducir drásticamente su consumo energético». Explicó que esto podría habilitar la IA en dispositivos compactos como herramientas médicas, vehículos y drones, con mayor duración de batería y menos transferencia de datos.

Al minimizar el desperdicio energético, este enfoque podría hacer la IA más accesible más allá de los grandes centros de datos, apoyando aplicaciones más amplias en entornos con recursos limitados.

Artículos relacionados

Realistic depiction of a rhesus macaque in a Princeton lab with brain overlay showing prefrontal cortex assembling reusable cognitive 'Lego' modules for flexible learning.
Imagen generada por IA

Estudio de Princeton revela ‘Lego cognitivos’ reutilizables del cerebro para el aprendizaje flexible

Reportado por IA Imagen generada por IA Verificado por hechos

Neurocientíficos de la Universidad de Princeton informan que el cerebro logra un aprendizaje flexible reutilizando componentes cognitivos modulares en distintas tareas. En experimentos con macacos rhesus, los investigadores descubrieron que la corteza prefrontal ensambla estos «Lego cognitivos» reutilizables para adaptar comportamientos rápidamente. Los hallazgos, publicados el 26 de noviembre en Nature, subrayan diferencias con los sistemas de IA actuales y podrían informar tratamientos para trastornos que afectan el pensamiento flexible.

Investigadores de la Universidad de Corea han desarrollado una sinapsis artificial de doble salida para mejorar la eficiencia energética de sistemas de IA multitarea, anunció la universidad. El dispositivo emite señales eléctricas y ópticas simultáneamente para habilitar el procesamiento paralelo. Las pruebas mostraron hasta un 47 por ciento más de velocidad en los cálculos y un consumo de energía reducido hasta 32 veces en comparación con hardware GPU convencional.

Reportado por IA

La startup australiana Cortical Labs ha anunciado planes para construir dos centros de datos utilizando chips llenos de neuronas. Las instalaciones en Melbourne y Singapur albergarán sus computadoras biológicas CL1, que han demostrado la capacidad de jugar videojuegos como Doom. La iniciativa busca escalar servicios de computación cerebral basados en la nube mientras reduce el consumo de energía.

Una escasez global de RAM, impulsada por las demandas de los centros de datos de IA, ha provocado que los precios de la memoria para PC se disparen entre un 40 y un 70 por ciento en 2025, lo que conlleva costes más altos y especificaciones más bajas para los ordenadores en 2026. Este desarrollo está enfriando el revuelo en torno a los llamados PC con IA, ya que los fabricantes cambian de enfoque ante el menguante interés de los consumidores. Los analistas predicen volatilidad en las ventas de PC este año, con las escaseces persistiendo más allá de 2026.

Reportado por IA

Un comentario de CNET argumenta que describir la IA como poseedora de cualidades humanas como almas o confesiones despista al público y erosiona la confianza en la tecnología. Destaca cómo empresas como OpenAI y Anthropic usan dicho lenguaje, que oculta problemas reales como sesgos y seguridad. El texto llama a una terminología más precisa para fomentar una comprensión acertada.

En la Cumbre de Impacto de la IA en India, el primer ministro Narendra Modi describió la inteligencia artificial como un punto de inflexión en la historia humana que podría reorientar la dirección de la civilización. Expresó preocupación por la forma de IA que se entregará a las generaciones futuras y enfatizó hacerla centrada en el ser humano y responsable. Los expertos han advertido sobre riesgos como la privacidad de datos, deepfakes y armas autónomas.

Reportado por IA

Investigadores chinos han introducido chips de IA fotónicos que prometen ventajas significativas de velocidad en tareas generativas específicas. Estos chips usan fotones en lugar de electrones, lo que permite un mayor paralelismo mediante interferencia óptica. Este desarrollo podría marcar un paso adelante en el hardware de IA, aunque las afirmaciones se limitan a aplicaciones estrechamente definidas.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar