Les puces analogiques pourraient accélérer l'entraînement de l'IA 1000 fois

Des chercheurs de l'Université de Pékin ont développé des puces informatiques analogiques qui résolvent des équations matricielles clés pour l'entraînement de l'IA avec une haute précision et rapidité. Ces puces promettent jusqu'à 1000 fois plus de traitement rapide et 100 fois moins de consommation d'énergie par rapport aux GPU numériques. Cette innovation répond aux demandes énergétiques croissantes de l'IA dans les centres de données.

Les ordinateurs analogiques, qui traitent les données en utilisant des quantités continues comme la résistance électrique plutôt que des chiffres binaires, offrent depuis longtemps des avantages en vitesse et en efficacité par rapport aux systèmes numériques, mais souvent au détriment de la précision. Désormais, Zhong Sun à l'Université de Pékin en Chine et son équipe ont créé une paire de puces analogiques pour résoudre ce problème, en se concentrant sur les équations matricielles essentielles pour l'entraînement des modèles d'IA, les télécommunications et les simulations scientifiques.

La configuration implique deux puces travaillant en tandem. La première fournit une solution rapide à faible précision pour les calculs matriciels avec un taux d'erreur d'environ 1 pour cent. La seconde puce applique ensuite un algorithme de raffinement itératif, analysant les erreurs et améliorant la précision. Après trois cycles, l'erreur tombe à 0,0000001 pour cent, correspondant à la précision des calculs numériques standard, selon Sun.

Actuellement, les puces gèrent des matrices de 16 sur 16, impliquant 256 variables, adaptées à des problèmes plus petits. L'échelle vers les matrices massives des modèles d'IA modernes nécessiterait des circuits jusqu'à un million sur un million, note Sun. Un avantage clé est que la résolution de matrices plus grandes ne ralentit pas les puces analogiques, contrairement aux numériques, qui font face à des défis exponentiels. Pour une matrice de 32 sur 32, la puce de l'équipe surpasserait une GPU Nvidia H100 en débit—les données traitées par seconde.

Théoriquement, un scaling supplémentaire pourrait atteindre 1000 fois le débit des puces numériques comme les GPU tout en utilisant 100 fois moins d'énergie. Cependant, Sun met en garde que les applications du monde réel pourraient ne pas exploiter pleinement cela, car les puces sont limitées aux calculs matriciels. «Ce n'est qu'une comparaison de vitesse, et pour les applications réelles, le problème peut être différent», dit Sun. «Notre puce ne peut faire que des calculs matriciels. Si le calcul matriciel occupe la majeure partie de la tâche de calcul, cela représente une accélération très significative pour le problème, mais sinon, ce sera une accélération limitée."

Sun anticipe des puces hybrides, intégrant des circuits analogiques dans les GPU pour des tâches spécifiques, bien que cela reste à plusieurs années. James Millen au King’s College London souligne le potentiel : «Les ordinateurs analogiques sont adaptés à des tâches spécifiques, et de cette manière peuvent être incroyablement rapides et efficaces. Ce travail utilise une puce de calcul analogique pour accélérer un processus appelé inversion de matrice, qui est un processus clé dans l'entraînement de certains modèles d'IA. Le faire plus efficacement pourrait aider à réduire les énormes demandes énergétiques de notre dépendance croissante à l'IA."

La recherche paraît dans Nature Electronics (DOI: 10.1038/s41928-025-01477-0).

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser