Las TPUs de Google desafían el dominio de Nvidia en chips de IA

Google está negociando supuestamente la venta de sus unidades de procesamiento tensorial a rivales como Meta y Anthropic, lo que podría alterar la ventaja de Nvidia en hardware de IA. Estos chips personalizados, diseñados específicamente para tareas de IA, ofrecen ganancias de eficiencia que podrían ahorrar a las empresas millones. A medida que aumenta la demanda de computación de IA, este cambio destaca la creciente diversificación en el sector.

Google pionó las unidades de procesamiento tensorial (TPU) en 2016, creando chips optimizados para las multiplicaciones matriciales centrales en el entrenamiento y ejecución de grandes modelos de IA. A diferencia de las unidades de procesamiento gráfico de propósito general (GPU), que Nvidia ha dominado, las TPU se centran exclusivamente en estos cálculos paralelos, reduciendo ineficiencias en las cargas de trabajo de IA.

Este año, Google presentó la TPU de séptima generación, llamada Ironwood, que soporta sus propios modelos como Gemini para procesamiento de lenguaje y AlphaFold para modelado de proteínas. Los expertos señalan que, aunque las TPU comparten similitudes con las GPU, su especialización las hace más eficientes para aplicaciones específicas de IA. «Pueden ser mucho más eficientes para estos trabajos y ahorrar potencialmente decenas o cientos de millones de dólares», dice Simon McIntosh-Smith de la Universidad de Bristol, Reino Unido.

Históricamente, Google utilizó las TPU internamente durante más de una década, pero informes recientes indican un giro hacia ventas externas. Empresas como Meta y Anthropic planean supuestamente invertir miles de millones de dólares en las TPU de Google, buscando alternativas a las GPU escasas y caras de Nvidia. Este movimiento podría fomentar la competencia, permitiendo a los compradores negociar mejores condiciones con Nvidia mientras diversifican las cadenas de suministro.

Francesco Conti, de la Universidad de Bolonia en Italia, explica el atractivo: las TPU destacan en paralelismo adecuado para IA, aunque su diseño nicho arriesga inflexibilidad si los modelos evolucionan rápidamente. Otros hiperscaladores, como Amazon con sus chips Trainium, también están desarrollando hardware personalizado en medio de la escasez de GPU. Como observa McIntosh-Smith, «Lo que no hemos oído es que grandes clientes estén cambiando, y tal vez eso es lo que está empezando a ocurrir ahora». Esta tendencia señala la maduración de la infraestructura de IA, potencialmente remodelando el panorama de hardware de la industria.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar