Les TPU de Google défient la domination des puces IA de Nvidia

Google négocierait la vente de ses unités de traitement tensoriel à des rivaux comme Meta et Anthropic, perturbant potentiellement la position dominante de Nvidia dans le matériel IA. Ces puces sur mesure, conçues spécifiquement pour les tâches d'IA, offrent des gains d'efficacité qui pourraient faire économiser des millions aux entreprises. Alors que la demande en calcul IA explose, ce virage met en lumière une diversification croissante du secteur.

Google a été pionnier des unités de traitement tensoriel (TPU) en 2016, en créant des puces optimisées pour les multiplications matricielles centrales à l'entraînement et l'exécution de grands modèles d'IA. Contrairement aux unités de traitement graphique polyvalentes (GPU), dominées par Nvidia, les TPU se concentrent exclusivement sur ces calculs parallèles, réduisant les inefficacités dans les charges de travail IA.

Cette année, Google a dévoilé la TPU de septième génération, nommée Ironwood, qui prend en charge ses propres modèles tels que Gemini pour le traitement du langage et AlphaFold pour la modélisation des protéines. Les experts notent que, bien que les TPU partagent des similitudes avec les GPU, leur spécialisation les rend plus efficaces pour des applications IA spécifiques. « Elles peuvent être beaucoup plus efficaces pour ces tâches et faire économiser potentiellement des dizaines ou centaines de millions de dollars », déclare Simon McIntosh-Smith, de l'Université de Bristol, au Royaume-Uni.

Historiquement, Google a utilisé les TPU en interne pendant plus d'une décennie, mais des rapports récents indiquent un pivot vers des ventes externes. Des entreprises comme Meta et Anthropic prévoient apparemment des investissements de plusieurs milliards de dollars dans les TPU de Google, cherchant des alternatives aux GPU rares et coûteux de Nvidia. Cette démarche pourrait favoriser la concurrence, permettant aux acheteurs de négocier de meilleurs termes avec Nvidia tout en diversifiant les chaînes d'approvisionnement.

Francesco Conti, de l'Université de Bologne en Italie, explique l'attrait : les TPU excellent dans le parallélisme adapté à l'IA, bien que leur conception nichée risque une rigidité si les modèles évoluent rapidement. D'autres hyperscalers, comme Amazon avec ses puces Trainium, développent également du matériel personnalisé au milieu des pénuries de GPU. Comme l'observe McIntosh-Smith, « Ce que nous n'avons pas entendu, ce sont de grands clients qui changent, et c'est peut-être ce qui commence à se produire maintenant. » Cette tendance signale la maturation de l'infrastructure IA, remodelant potentiellement le paysage matériel de l'industrie.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser