Étude suggère des algorithmes inspirés du cerveau pour réduire la consommation énergétique de l'IA

Des chercheurs de l'Université Purdue et du Georgia Institute of Technology ont proposé une nouvelle architecture informatique pour les modèles d'IA inspirée du cerveau humain. Cette approche vise à résoudre le problème de la 'barrière mémoire' énergivore dans les systèmes actuels. L'étude, publiée dans Frontiers in Science, met en lumière le potentiel d'une IA plus efficace dans les appareils quotidiens.

La croissance rapide de l'IA a exacerbé les défis dans la conception des ordinateurs, en particulier la séparation du traitement et de la mémoire dans les systèmes traditionnels. Une étude publiée lundi dans la revue Frontiers in Science expose une solution inspirée du cerveau à ce problème. Dirigée par Kaushik Roy, professeur d'ingénierie informatique à l'Université Purdue, la recherche plaide pour repenser l'architecture de l'IA afin de la rendre plus économe en énergie.

Les ordinateurs actuels suivent l'architecture de von Neumann, développée en 1945, qui sépare la mémoire du traitement. Ce design crée un goulot d'étranglement connu sous le nom de 'barrière mémoire', un terme inventé par des chercheurs de l'Université de Virginie dans les années 1990. Alors que les modèles d'IA, en particulier les processeurs de langage, ont augmenté 5 000 fois en taille au cours des quatre dernières années, l'écart entre la vitesse de la mémoire et la puissance de traitement est devenu plus pressant. IBM a récemment mis l'accent sur ce problème dans un rapport.

La solution proposée s'inspire du fonctionnement du cerveau, en utilisant des réseaux de neurones à impulsions (SNN). Ces algorithmes, autrefois critiqués pour leur lenteur et leur imprécision, se sont considérablement améliorés ces dernières années. Les chercheurs prônent le 'compute-in-memory' (CIM), qui intègre le calcul directement dans le système de mémoire. Comme indiqué dans le résumé de l'article, « Le CIM offre une solution prometteuse au problème de la barrière mémoire en intégrant directement les capacités de calcul dans le système de mémoire. »

Roy a noté : « Les modèles de traitement du langage ont augmenté 5 000 fois en taille au cours des quatre dernières années. Cette expansion alarmamment rapide rend crucial que l'IA soit aussi efficace que possible. Cela signifie repenser fondamentalement la conception des ordinateurs. »

La co-auteure Tanvi Sharma, chercheuse à Purdue, a ajouté : « L'IA est l'une des technologies les plus transformatrices du XXIe siècle. Cependant, pour la sortir des centres de données et l'amener dans le monde réel, nous devons réduire drastiquement sa consommation d'énergie. » Elle a expliqué que cela pourrait permettre l'IA dans des appareils compacts comme des outils médicaux, des véhicules et des drones, avec une autonomie de batterie plus longue et moins de transferts de données.

En minimisant le gaspillage d'énergie, cette approche pourrait rendre l'IA plus accessible au-delà des grands centres de données, soutenant des applications plus larges dans des environnements à ressources limitées.

Articles connexes

Realistic depiction of a rhesus macaque in a Princeton lab with brain overlay showing prefrontal cortex assembling reusable cognitive 'Lego' modules for flexible learning.
Image générée par IA

Étude de Princeton révèle les « Lego cognitifs » réutilisables du cerveau pour un apprentissage flexible

Rapporté par l'IA Image générée par IA Vérifié par des faits

Des neuroscientifiques de l’université de Princeton rapportent que le cerveau parvient à un apprentissage flexible en réutilisant des composants cognitifs modulaires à travers les tâches. Dans des expériences avec des macaques rhésus, les chercheurs ont découvert que le cortex préfrontal assemble ces « Lego cognitifs » réutilisables pour adapter rapidement les comportements. Les résultats, publiés le 26 novembre dans Nature, soulignent les différences avec les systèmes d’IA actuels et pourraient éventuellement informer des traitements pour les troubles qui altèrent la pensée flexible.

Les développeurs technologiques délocalisent l’intelligence artificielle des centres de données distants dans le nuage vers des appareils personnels comme les téléphones et ordinateurs portables pour obtenir un traitement plus rapide, une meilleure confidentialité et des coûts réduits. Cette IA sur appareil permet des tâches nécessitant des réponses rapides et garde les données sensibles locales. Les experts prédisent des avancées significatives dans les années à venir avec l’amélioration du matériel et des modèles.

Rapporté par l'IA

Les scientifiques sont sur le point de simuler un cerveau humain à l'aide des superordinateurs les plus puissants au monde, dans le but de percer les secrets du fonctionnement cérébral. Mené par des chercheurs du Jülich Research Centre en Allemagne, le projet exploite le superordinateur JUPITER pour modéliser 20 milliards de neurones. Cette avancée pourrait permettre de tester des théories sur la mémoire et les effets des médicaments que les modèles plus petits ne peuvent pas atteindre.

Les agents de codage IA de sociétés comme OpenAI, Anthropic et Google permettent un travail prolongé sur des projets logiciels, y compris l'écriture d'applications et la correction de bugs sous surveillance humaine. Ces outils reposent sur de grands modèles de langage mais font face à des défis comme un traitement de contexte limité et des coûts computationnels élevés. Comprendre leur fonctionnement aide les développeurs à décider quand les déployer efficacement.

Rapporté par l'IA

China's State Grid Corporation plans to invest 4 trillion yuan (US$574 billion) by 2030 to build a more efficient power system integrating renewables, aiming to secure an edge in the US-China tech rivalry. Experts note that electricity is China's undeniable advantage in the AI race.

Des mathématiciens amateurs ont stupéfié les professionnels en utilisant des outils d'IA comme ChatGPT pour s'attaquer à des problèmes de longue date posés par Paul Erdős. Bien que la plupart des solutions redécouvrent des résultats existants, une nouvelle preuve met en lumière le potentiel de l'IA pour transformer la recherche mathématique. Les experts y voient une première étape vers des applications plus larges dans le domaine.

Rapporté par l'IA

Hangzhou-based startup DeepSeek has not announced plans for its next major AI model release, but its technical papers suggest potential advances. The papers highlight how AI infrastructure innovations could drive efficiency and scale up model performance.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser