طرحت جوجل وحدتي معالجة تينسور جديدتين، هما TPU 8t للتدريب وTPU 8i للاستنتاج، بهدف دعم ما تسميه الشركة عصر الذكاء الاصطناعي التفاعلي. وتأتي هذه الرقائق من الجيل الثامن خلفاً لرقائق Ironwood التي أُطلقت في عام 2025، لتعد بتطوير أسرع وأكثر كفاءة للذكاء الاصطناعي، حيث تهدف الأجهزة الجديدة إلى تقليص أوقات تدريب النماذج الضخمة من أشهر إلى أسابيع.
أعلنت جوجل يوم الثلاثاء عن شريحتي TPU 8t وTPU 8i، واصفة إياهما بمسرعات متخصصة لمراحل مختلفة من دورة حياة نماذج الذكاء الاصطناعي. تركز شريحة TPU 8t على تدريب النماذج المتطورة، من خلال مجموعات خوادم محدثة تُعرف بـ pods، تضم 9600 شريحة واثنين من البيتابايت من الذاكرة المشتركة ذات النطاق الترددي العالي. وتذكر جوجل أن هذه المجموعات توفر 121 FP4 EFlops من قدرة الحوسبة، وهو ما يزيد بنحو ثلاثة أضعاف عن جيل Ironwood السابق، كما يمكن توسيعها خطياً لتصل إلى مليون شريحة في مجموعة واحدة. وتدعي الشركة تحقيق معدل 'كفاءة حوسبية' بنسبة 97 في المئة، بفضل تحسين إدارة الذاكرة، والإدارة التلقائية للأعطال، والقياسات عن بُعد في الوقت الفعلي عبر الرقائق، مما يقلل من الوقت والجهد المهدر. وبحسب جوجل، من المتوقع أن تنخفض أوقات تدريب نماذج الذكاء الاصطناعي الضخمة من أشهر إلى أسابيع. أما شريحة TPU 8i فهي مخصصة للاستنتاج، وهي المرحلة التي تقوم فيها النماذج المدربة بتوليد الاستجابات. تعمل هذه الرقائق في مجموعات أكبر تضم 1152 وحدة، توفر 11.6 EFlops لكل مجموعة. وتتميز كل شريحة TPU 8i بمضاعفة ذاكرة SRAM على الشريحة ثلاث مرات لتصل إلى 384 ميجابايت، مما يتيح ذاكرة تخزين مؤقت أكبر للمفاتيح والقيم للنماذج ذات نوافذ السياق الممتدة. ولأول مرة، تعمل هذه الرقائق حصرياً مع معالجات Axion ARM المخصصة من جوجل، باستخدام معالج واحد لكل شريحتي TPU، وهو ما تقول جوجل إنه يعزز الكفاءة الإجمالية مقارنة بنظام x86 السابق الذي كان يخدم أربع شرائح. وتمتد مكاسب الكفاءة لتشمل الطاقة والتبريد؛ إذ توفر الرقائق الجديدة ضعف الأداء لكل واط مقارنة بـ Ironwood، بينما زادت تصميمات مراكز البيانات التي تدمج الشبكات والحوسبة من قوة الحوسبة لكل وحدة كهرباء ستة أضعاف. كما يستخدم التبريد السائل الآن صمامات يتم التحكم فيها بنشاط لمطابقة تدفق المياه مع أحمال العمل. وستدعم هذه الرقائق وكلاء جوجل القائمين على نموذج Gemini والمطورين من الأطراف الخارجية عبر أطر عمل مثل JAX وMaxText وPyTorch وSGLang وvLLM. وقد انخفض سهم شركة Nvidia بنسبة 1.5 في المئة لفترة وجيزة بعد الإعلان قبل أن يستعيد عافيته.