Étude suggère des algorithmes inspirés du cerveau pour réduire la consommation énergétique de l'IA

Des chercheurs de l'Université Purdue et du Georgia Institute of Technology ont proposé une nouvelle architecture informatique pour les modèles d'IA inspirée du cerveau humain. Cette approche vise à résoudre le problème de la 'barrière mémoire' énergivore dans les systèmes actuels. L'étude, publiée dans Frontiers in Science, met en lumière le potentiel d'une IA plus efficace dans les appareils quotidiens.

La croissance rapide de l'IA a exacerbé les défis dans la conception des ordinateurs, en particulier la séparation du traitement et de la mémoire dans les systèmes traditionnels. Une étude publiée lundi dans la revue Frontiers in Science expose une solution inspirée du cerveau à ce problème. Dirigée par Kaushik Roy, professeur d'ingénierie informatique à l'Université Purdue, la recherche plaide pour repenser l'architecture de l'IA afin de la rendre plus économe en énergie.

Les ordinateurs actuels suivent l'architecture de von Neumann, développée en 1945, qui sépare la mémoire du traitement. Ce design crée un goulot d'étranglement connu sous le nom de 'barrière mémoire', un terme inventé par des chercheurs de l'Université de Virginie dans les années 1990. Alors que les modèles d'IA, en particulier les processeurs de langage, ont augmenté 5 000 fois en taille au cours des quatre dernières années, l'écart entre la vitesse de la mémoire et la puissance de traitement est devenu plus pressant. IBM a récemment mis l'accent sur ce problème dans un rapport.

La solution proposée s'inspire du fonctionnement du cerveau, en utilisant des réseaux de neurones à impulsions (SNN). Ces algorithmes, autrefois critiqués pour leur lenteur et leur imprécision, se sont considérablement améliorés ces dernières années. Les chercheurs prônent le 'compute-in-memory' (CIM), qui intègre le calcul directement dans le système de mémoire. Comme indiqué dans le résumé de l'article, « Le CIM offre une solution prometteuse au problème de la barrière mémoire en intégrant directement les capacités de calcul dans le système de mémoire. »

Roy a noté : « Les modèles de traitement du langage ont augmenté 5 000 fois en taille au cours des quatre dernières années. Cette expansion alarmamment rapide rend crucial que l'IA soit aussi efficace que possible. Cela signifie repenser fondamentalement la conception des ordinateurs. »

La co-auteure Tanvi Sharma, chercheuse à Purdue, a ajouté : « L'IA est l'une des technologies les plus transformatrices du XXIe siècle. Cependant, pour la sortir des centres de données et l'amener dans le monde réel, nous devons réduire drastiquement sa consommation d'énergie. » Elle a expliqué que cela pourrait permettre l'IA dans des appareils compacts comme des outils médicaux, des véhicules et des drones, avec une autonomie de batterie plus longue et moins de transferts de données.

En minimisant le gaspillage d'énergie, cette approche pourrait rendre l'IA plus accessible au-delà des grands centres de données, soutenant des applications plus larges dans des environnements à ressources limitées.

Articles connexes

Realistic depiction of a rhesus macaque in a Princeton lab with brain overlay showing prefrontal cortex assembling reusable cognitive 'Lego' modules for flexible learning.
Image générée par IA

Étude de Princeton révèle les « Lego cognitifs » réutilisables du cerveau pour un apprentissage flexible

Rapporté par l'IA Image générée par IA Vérifié par des faits

Des neuroscientifiques de l’université de Princeton rapportent que le cerveau parvient à un apprentissage flexible en réutilisant des composants cognitifs modulaires à travers les tâches. Dans des expériences avec des macaques rhésus, les chercheurs ont découvert que le cortex préfrontal assemble ces « Lego cognitifs » réutilisables pour adapter rapidement les comportements. Les résultats, publiés le 26 novembre dans Nature, soulignent les différences avec les systèmes d’IA actuels et pourraient éventuellement informer des traitements pour les troubles qui altèrent la pensée flexible.

Researchers at Korea University have developed a dual-output artificial synapse to boost the energy efficiency of multitasking AI systems, the university announced. The device emits both electrical and optical signals simultaneously to enable parallel processing. Tests showed up to 47 percent faster computation and energy use reduced by as much as 32 times compared to conventional GPU hardware.

Rapporté par l'IA

La start-up australienne Cortical Labs a annoncé ses projets de construction de deux centres de données utilisant des puces remplies de neurones. Les installations à Melbourne et Singapour abriteront ses ordinateurs biologiques CL1, qui ont démontré leur capacité à jouer à des jeux vidéo comme Doom. Cette initiative vise à développer des services d'informatique cérébrale basés sur le cloud tout en réduisant la consommation d'énergie.

Une pénurie mondiale de RAM, provoquée par les besoins des centres de données IA, a fait grimper les prix de la mémoire PC de 40 à 70 pour cent en 2025, entraînant des coûts plus élevés et des spécifications inférieures pour les ordinateurs en 2026. Ce développement tempère l'engouement autour des prétendus PC IA, les fabricants réorientant leur focus face à un intérêt consommateur en baisse. Les analystes prévoient une volatilité des ventes de PC cette année, les pénuries se prolongeant au-delà de 2026.

Rapporté par l'IA

Un commentaire de CNET soutient que décrire l’IA comme dotée de qualités humaines telles que des âmes ou des confessions égare le public et érode la confiance dans la technologie. Il met en lumière comment des entreprises comme OpenAI et Anthropic utilisent un tel langage, qui occulte les vrais problèmes comme les biais et la sécurité. L’article plaide pour une terminologie plus précise afin de favoriser une compréhension exacte.

Au sommet India AI Impact, le Premier ministre Narendra Modi a qualifié l'intelligence artificielle de tournant dans l'histoire humaine susceptible de réorienter la direction de la civilisation. Il a exprimé des préoccupations sur la forme de l'IA transmise aux générations futures et a insisté sur le fait de la rendre centrée sur l'humain et responsable. Les experts ont mis en garde contre des risques incluant la confidentialité des données, les deepfakes et les armes autonomes.

Rapporté par l'IA

Des chercheurs chinois ont présenté des puces IA photoniques promettant des avantages de vitesse significatifs dans des tâches génératives spécifiques. Ces puces utilisent des photons au lieu d'électrons, permettant un plus grand parallélisme grâce à l'interférence optique. Ce développement pourrait marquer un progrès dans le matériel IA, bien que les affirmations soient limitées à des applications étroitement définies.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser