Google revela chips TPU 8t e TPU 8i para IA agentiva

O Google apresentou duas novas Tensor Processing Units, a TPU 8t para treinamento e a TPU 8i para inferência, voltadas para o que a empresa chama de era agentiva da IA. Esses chips de oitava geração sucedem a TPU Ironwood de 2025 e prometem um desenvolvimento de IA mais rápido e eficiente. O hardware visa reduzir o tempo de treinamento de grandes modelos de meses para semanas.

O Google anunciou a TPU 8t e a TPU 8i na terça-feira, posicionando-as como aceleradores especializados para diferentes estágios dos ciclos de vida de modelos de IA. A TPU 8t foca no treinamento de modelos de fronteira, com clusters de servidores atualizados chamados pods que comportam 9.600 chips e dois petabytes de memória compartilhada de alta largura de banda. O Google afirma que esses pods entregam 121 FP4 EFlops de computação, quase três vezes mais que a geração anterior Ironwood, e podem escalar linearmente para um milhão de chips em um único cluster. A empresa reivindica uma taxa de 'goodpute' de 97 por cento, graças ao melhor gerenciamento de memória, gestão automática de falhas e telemetria em tempo real entre os chips, reduzindo desperdício de tempo e esforço. O tempo de treinamento para modelos massivos de IA deve cair de meses para semanas, segundo o Google. A TPU 8i lida com a inferência, a fase em que modelos treinados geram respostas. Esses chips operam em pods maiores de 1.152 unidades, fornecendo 11,6 EFlops por pod. Cada TPU 8i apresenta o triplo de SRAM no chip, totalizando 384 MB, permitindo caches de chave-valor maiores para modelos com janelas de contexto estendidas. Pela primeira vez, os chips são combinados exclusivamente com as CPUs ARM personalizadas Axion do Google, usando uma CPU para cada duas TPUs, o que, segundo o Google, aumenta a eficiência geral em comparação com a configuração x86 anterior que atendia quatro TPUs. Os ganhos de eficiência se estendem à energia e refrigeração. As novas TPUs oferecem o dobro do desempenho por watt da Ironwood, enquanto os projetos de data centers que integram rede e computação aumentaram a potência computacional por unidade de eletricidade em seis vezes. A refrigeração líquida agora usa válvulas controladas ativamente para ajustar o fluxo de água às cargas de trabalho. Esses chips suportarão os agentes baseados em Gemini do Google e desenvolvedores terceiros por meio de frameworks como JAX, MaxText, PyTorch, SGLang e vLLM. As ações da Nvidia caíram brevemente 1,5 por cento após a notícia, mas se recuperaram.

Artigos relacionados

Illustration of OpenAI's GPT-5.4 launch, showing enhanced AI models for knowledge work in a modern office setting amid competition.
Imagem gerada por IA

OpenAI releases GPT-5.4 models for knowledge work

Reportado por IA Imagem gerada por IA

OpenAI has launched GPT-5.4, including variants Thinking and Pro, aimed at improving agentic tasks and knowledge work. The update features enhanced computer-use capabilities and reduced factual errors, amid competition from Anthropic following a US defense deal controversy. The models are available immediately to paid users and developers.

Experts argue that physical AI, involving robots and autonomous machines interacting with the real world, may provide a direct path to artificial general intelligence. Elon Musk's comments on Tesla's Optimus robots highlight this potential, amid growing investments in related technologies. The year 2026 is seen as a key inflection point for the field.

Reportado por IA

Building on last week's earnings report announcing the shift from EVs to AI and robotics, Tesla has outlined specifics on its custom AI5 and AI6 chips, next-gen Optimus robot, and ambitious 'general solution' for self-driving and bipedal robotics. The $20 billion 2026 investment underscores this transformation amid ongoing EV challenges.

Nvidia has described AI as a five-layer industrial system. CEO Jensen detailed the AI layered stack and hinted at the company's next moves. The firm eyes expansion across technology layers, akin to Amazon beyond cloud services.

Reportado por IA

Bytedance, the Chinese parent company of TikTok, is reportedly partnering with a Singapore-based firm to acquire NVIDIA's advanced B200 AI chips for use in Malaysia, bypassing US export restrictions. This arrangement aims to support AI research and development outside China. The project involves significant investment and adheres to export regulations.

terça-feira, 05 de maio de 2026, 23:48h

OpenAI plans to produce 30 million AI phones in 2027-2028

segunda-feira, 27 de abril de 2026, 21:27h

OpenAI rumored to build AI agent smartphone with partners

quinta-feira, 16 de abril de 2026, 22:40h

Intel launches mainstream Core Series 3 (Wildcat Lake) chips on 18A process

quarta-feira, 08 de abril de 2026, 08:35h

Intel to collaborate with Elon Musk on Terafab chip project

terça-feira, 24 de março de 2026, 13:09h

HP unveils IQ AI layer and high-performance PCs in New York

quinta-feira, 12 de março de 2026, 02:22h

Samsung secures $16.5 billion deal with Tesla for AI chips

quarta-feira, 25 de fevereiro de 2026, 02:04h

Chinese transistor breakthrough paves way for future AI chips

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar