Les scientifiques sont sur le point de simuler un cerveau humain à l'aide des superordinateurs les plus puissants au monde, dans le but de percer les secrets du fonctionnement cérébral. Mené par des chercheurs du Jülich Research Centre en Allemagne, le projet exploite le superordinateur JUPITER pour modéliser 20 milliards de neurones. Cette avancée pourrait permettre de tester des théories sur la mémoire et les effets des médicaments que les modèles plus petits ne peuvent pas atteindre.
Les progrès en puissance de calcul permettent aux chercheurs de simuler le cerveau humain à une échelle sans précédent. Les superordinateurs actuels, approchant les performances exascale avec un quintillion d'opérations par seconde, peuvent gérer des simulations de milliards de neurones, selon la liste Top500, qui n'identifie que quatre telles machines dans le monde. Markus Diesmann, au Jülich Research Centre en Allemagne, a expliqué le changement : « Nous n'avons jamais pu les rassembler tous en un seul endroit, dans un modèle de cerveau plus grand où nous pourrions vérifier si ces idées sont cohérentes du tout. Cela change maintenant. » Son équipe prévoit d'utiliser JUPITER, le Joint Undertaking Pioneer for Innovative and Transformative Exascale Research, basé en Allemagne. Le mois dernier, ils ont démontré qu'un réseau neuronal à décharges — un modèle simple de neurones et de synapses — pouvait s'étendre pour fonctionner sur les milliers d'unités de traitement graphique de JUPITER, atteignant 20 milliards de neurones et 100 billions de connexions. Cela correspond à la taille du cortex cérébral humain, le centre des fonctions cérébrales supérieures. Diesmann a souligné la valeur de l'échelle : « Nous savons maintenant que les grands réseaux peuvent faire des choses qualitativement différentes des petits. Il est clair que les grands réseaux sont différents. » Les simulations précédentes, comme celles du cerveau d'une mouche à fruits, manquent de caractéristiques qui émergent seulement dans des systèmes plus grands, similaire à la façon dont les grands modèles de langage surpassent les petits. Thomas Nowotny, de l'Université de Sussex au Royaume-Uni, a insisté sur la nécessité d'efforts à pleine échelle : « Réduire l'échelle ne consiste pas seulement à le simplifier un peu ou à le rendre un peu plus grossier, cela signifie renoncer à certaines propriétés complètement. Il est vraiment important que nous puissions éventuellement faire des [simulations] à pleine échelle, car sinon nous n'obtiendrons jamais la vraie chose. » Le modèle s'appuie sur des données réelles d'expériences sur le cerveau humain, y compris les comptes de synapses et les niveaux d'activité, comme l'a noté la collaboratrice Johanna Senk de l'Université de Sussex. Diesmann a ajouté : « Nous avons maintenant ces données anatomiques comme contraintes, mais aussi la puissance informatique. » De telles simulations pourraient tester des théories sur la formation de la mémoire en entrant des images et en observant les réactions, ou évaluer des médicaments pour des affections comme l'épilepsie, caractérisée par des rafales d'activité cérébrale anormale. Une puissance accrue permet des exécutions plus rapides pour étudier des processus lents comme l'apprentissage et intègre des comportements détaillés des neurones. Cependant, des défis persistent. Nowotny a averti que même les simulations de la taille d'un cerveau manquent d'entrées du monde réel et ne peuvent pas reproduire pleinement le comportement animal. « Nous ne pouvons pas réellement construire des cerveaux. Même si nous pouvons faire des simulations de la taille d'un cerveau, nous ne pouvons pas faire des simulations du cerveau. »