Des chercheurs de l'Université Purdue et du Georgia Institute of Technology ont proposé une nouvelle architecture informatique pour les modèles d'IA inspirée du cerveau humain. Cette approche vise à résoudre le problème de la 'barrière mémoire' énergivore dans les systèmes actuels. L'étude, publiée dans Frontiers in Science, met en lumière le potentiel d'une IA plus efficace dans les appareils quotidiens.
La croissance rapide de l'IA a exacerbé les défis dans la conception des ordinateurs, en particulier la séparation du traitement et de la mémoire dans les systèmes traditionnels. Une étude publiée lundi dans la revue Frontiers in Science expose une solution inspirée du cerveau à ce problème. Dirigée par Kaushik Roy, professeur d'ingénierie informatique à l'Université Purdue, la recherche plaide pour repenser l'architecture de l'IA afin de la rendre plus économe en énergie.
Les ordinateurs actuels suivent l'architecture de von Neumann, développée en 1945, qui sépare la mémoire du traitement. Ce design crée un goulot d'étranglement connu sous le nom de 'barrière mémoire', un terme inventé par des chercheurs de l'Université de Virginie dans les années 1990. Alors que les modèles d'IA, en particulier les processeurs de langage, ont augmenté 5 000 fois en taille au cours des quatre dernières années, l'écart entre la vitesse de la mémoire et la puissance de traitement est devenu plus pressant. IBM a récemment mis l'accent sur ce problème dans un rapport.
La solution proposée s'inspire du fonctionnement du cerveau, en utilisant des réseaux de neurones à impulsions (SNN). Ces algorithmes, autrefois critiqués pour leur lenteur et leur imprécision, se sont considérablement améliorés ces dernières années. Les chercheurs prônent le 'compute-in-memory' (CIM), qui intègre le calcul directement dans le système de mémoire. Comme indiqué dans le résumé de l'article, « Le CIM offre une solution prometteuse au problème de la barrière mémoire en intégrant directement les capacités de calcul dans le système de mémoire. »
Roy a noté : « Les modèles de traitement du langage ont augmenté 5 000 fois en taille au cours des quatre dernières années. Cette expansion alarmamment rapide rend crucial que l'IA soit aussi efficace que possible. Cela signifie repenser fondamentalement la conception des ordinateurs. »
La co-auteure Tanvi Sharma, chercheuse à Purdue, a ajouté : « L'IA est l'une des technologies les plus transformatrices du XXIe siècle. Cependant, pour la sortir des centres de données et l'amener dans le monde réel, nous devons réduire drastiquement sa consommation d'énergie. » Elle a expliqué que cela pourrait permettre l'IA dans des appareils compacts comme des outils médicaux, des véhicules et des drones, avec une autonomie de batterie plus longue et moins de transferts de données.
En minimisant le gaspillage d'énergie, cette approche pourrait rendre l'IA plus accessible au-delà des grands centres de données, soutenant des applications plus larges dans des environnements à ressources limitées.