Estudio sugiere algoritmos inspirados en el cerebro para reducir el consumo energético de la IA

Investigadores de la Universidad de Purdue y el Instituto de Tecnología de Georgia han propuesto una nueva arquitectura informática para modelos de IA inspirada en el cerebro humano. Este enfoque busca abordar el problema de la 'pared de memoria' intensivo en energía en los sistemas actuales. El estudio, publicado en Frontiers in Science, destaca el potencial para una IA más eficiente en dispositivos cotidianos.

El rápido crecimiento de la IA ha agravado los desafíos en el diseño de computadoras, particularmente la separación entre procesamiento y memoria en los sistemas tradicionales. Un estudio publicado el lunes en la revista Frontiers in Science describe una solución inspirada en el cerebro para este problema. Dirigido por Kaushik Roy, profesor de ingeniería informática en la Universidad de Purdue, la investigación aboga por repensar la arquitectura de la IA para hacerla más eficiente energéticamente.

Las computadoras actuales siguen la arquitectura de von Neumann, desarrollada en 1945, que mantiene separadas la memoria y el procesamiento. Este diseño crea un cuello de botella conocido como la 'pared de memoria', un término acuñado por investigadores de la Universidad de Virginia en la década de 1990. A medida que los modelos de IA, especialmente los procesadores de lenguaje, han crecido 5000 veces en tamaño en los últimos cuatro años, la disparidad entre la velocidad de la memoria y la potencia de procesamiento se ha vuelto más apremiante. IBM enfatizó recientemente este problema en un informe.

La solución propuesta se inspira en el funcionamiento del cerebro, utilizando redes neuronales de picos (SNN). Estos algoritmos, antes criticados por ser lentos e imprecisos, han mejorado significativamente en los últimos años. Los investigadores abogan por 'compute-in-memory' (CIM), que integra el cómputo directamente en el sistema de memoria. Como se indica en el resumen del artículo, «CIM ofrece una solución prometedora al problema de la pared de memoria al integrar capacidades de cómputo directamente en el sistema de memoria».

Roy señaló: «Los modelos de procesamiento de lenguaje han crecido 5000 veces en tamaño en los últimos cuatro años. Esta expansión alarmantemente rápida hace crucial que la IA sea lo más eficiente posible. Eso significa repensar fundamentalmente cómo se diseñan las computadoras».

La coautora Tanvi Sharma, investigadora de Purdue, añadió: «La IA es una de las tecnologías más transformadoras del siglo XXI. Sin embargo, para sacarla de los centros de datos y llevarla al mundo real, necesitamos reducir drásticamente su consumo energético». Explicó que esto podría habilitar la IA en dispositivos compactos como herramientas médicas, vehículos y drones, con mayor duración de batería y menos transferencia de datos.

Al minimizar el desperdicio energético, este enfoque podría hacer la IA más accesible más allá de los grandes centros de datos, apoyando aplicaciones más amplias en entornos con recursos limitados.

Artículos relacionados

Realistic depiction of a rhesus macaque in a Princeton lab with brain overlay showing prefrontal cortex assembling reusable cognitive 'Lego' modules for flexible learning.
Imagen generada por IA

Estudio de Princeton revela ‘Lego cognitivos’ reutilizables del cerebro para el aprendizaje flexible

Reportado por IA Imagen generada por IA Verificado por hechos

Neurocientíficos de la Universidad de Princeton informan que el cerebro logra un aprendizaje flexible reutilizando componentes cognitivos modulares en distintas tareas. En experimentos con macacos rhesus, los investigadores descubrieron que la corteza prefrontal ensambla estos «Lego cognitivos» reutilizables para adaptar comportamientos rápidamente. Los hallazgos, publicados el 26 de noviembre en Nature, subrayan diferencias con los sistemas de IA actuales y podrían informar tratamientos para trastornos que afectan el pensamiento flexible.

Los desarrolladores tecnológicos están trasladando la inteligencia artificial de lejanos centros de datos en la nube a dispositivos personales como teléfonos y ordenadores portátiles para lograr un procesamiento más rápido, mejor privacidad y menores costes. Esta IA en el dispositivo permite tareas que requieren respuestas rápidas y mantiene los datos sensibles en el lugar. Los expertos predicen avances significativos en los próximos años a medida que mejoren el hardware y los modelos.

Reportado por IA

Los científicos están a punto de simular un cerebro humano utilizando las supercomputadoras más potentes del mundo, con el objetivo de desentrañar los secretos del funcionamiento cerebral. Liderado por investigadores del Centro de Investigación de Jülich en Alemania, el proyecto aprovecha la supercomputadora JUPITER para modelar 20.000 millones de neuronas. Este avance podría permitir probar teorías sobre la memoria y los efectos de los fármacos que los modelos más pequeños no pueden lograr.

Los agentes de codificación con IA de empresas como OpenAI, Anthropic y Google permiten trabajos prolongados en proyectos de software, incluyendo la escritura de aplicaciones y la corrección de errores bajo supervisión humana. Estas herramientas se basan en modelos de lenguaje grandes pero enfrentan desafíos como el procesamiento limitado de contexto y altos costos computacionales. Comprender su mecánica ayuda a los desarrolladores a decidir cuándo desplegarlos de manera efectiva.

Reportado por IA

La Corporación Estatal de Red Eléctrica de China planea invertir 4 billones de yuanes (574.000 millones de dólares) para 2030 en un sistema eléctrico más eficiente que integre renovables, con el objetivo de ganar ventaja en la rivalidad tecnológica entre EE.UU. y China. Expertos señalan que la electricidad es la ventaja innegable de China en la carrera de la IA.

Matemáticos aficionados han dejado atónitos a los profesionales al usar herramientas de IA como ChatGPT para abordar problemas de larga data planteados por Paul Erdős. Aunque la mayoría de las soluciones redescubren resultados existentes, una nueva prueba destaca el potencial de la IA para transformar la investigación matemática. Los expertos ven esto como un primer paso hacia aplicaciones más amplias en el campo.

Reportado por IA

La startup con sede en Hangzhou, DeepSeek, no ha anunciado planes para su próximo lanzamiento de un modelo de IA principal, pero sus trabajos técnicos sugieren avances potenciales. Los papeles destacan cómo las innovaciones en infraestructura de IA podrían impulsar la eficiencia y escalar el rendimiento de los modelos.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar