Chips analógicos podrían acelerar el entrenamiento de IA 1000 veces

Investigadores de la Universidad de Pekín han desarrollado chips de computadora analógicos que resuelven ecuaciones matriciales clave para el entrenamiento de IA con alta precisión y velocidad. Estos chips prometen hasta 1000 veces más procesamiento rápido y 100 veces menos consumo de energía en comparación con las GPUs digitales. La innovación aborda las crecientes demandas energéticas de la IA en los centros de datos.

Las computadoras analógicas, que procesan datos utilizando cantidades continuas como la resistencia eléctrica en lugar de dígitos binarios, han ofrecido durante mucho tiempo ventajas en velocidad y eficiencia sobre los sistemas digitales, pero a menudo a expensas de la precisión. Ahora, Zhong Sun de la Universidad de Pekín en China y su equipo han creado un par de chips analógicos para abordar este problema, enfocándose en ecuaciones matriciales esenciales para el entrenamiento de modelos de IA, telecomunicaciones y simulaciones científicas.

La configuración involucra dos chips que trabajan en tándem. El primero proporciona una solución rápida de baja precisión a los cálculos matriciales con una tasa de error de aproximadamente el 1 por ciento. El segundo chip aplica entonces un algoritmo de refinamiento iterativo, analizando errores y mejorando la precisión. Después de tres ciclos, el error cae al 0.0000001 por ciento, igualando la precisión de los cálculos digitales estándar, según Sun.

Actualmente, los chips manejan matrices de 16 por 16, involucrando 256 variables, adecuadas para problemas más pequeños. Escalar a las matrices masivas en modelos de IA modernos requeriría circuitos de hasta un millón por un millón, nota Sun. Un beneficio clave es que resolver matrices más grandes no ralentiza los chips analógicos, a diferencia de los digitales, que enfrentan desafíos exponenciales. Para una matriz de 32 por 32, el chip del equipo superaría a una GPU Nvidia H100 en rendimiento: los datos procesados por segundo.

Teóricamente, un mayor escalado podría lograr 1000 veces el rendimiento de chips digitales como las GPUs mientras usa 100 veces menos energía. Sin embargo, Sun advierte que las aplicaciones del mundo real pueden no aprovechar esto completamente, ya que los chips están limitados a cálculos matriciales. «Solo es una comparación de velocidad, y para aplicaciones reales, el problema puede ser diferente», dice Sun. «Nuestro chip solo puede hacer cálculos matriciales. Si el cálculo matricial ocupa la mayor parte de la tarea de cómputo, representa una aceleración muy significativa para el problema, pero si no, será una aceleración limitada».

Sun anticipa chips híbridos, integrando circuitos analógicos en GPUs para tareas específicas, aunque esto queda a años de distancia. James Millen de la King’s College London destaca el potencial: «Las computadoras analógicas están adaptadas a tareas específicas, y de esta manera pueden ser increíblemente rápidas y eficientes. Este trabajo utiliza un chip de cómputo analógico para acelerar un proceso llamado inversión matricial, que es un proceso clave en el entrenamiento de ciertos modelos de IA. Hacerlo de manera más eficiente podría ayudar a reducir las enormes demandas energéticas de nuestra creciente dependencia de la IA».

La investigación aparece en Nature Electronics (DOI: 10.1038/s41928-025-01477-0).

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar