我们的 TPU 如何驱动日益复杂的 AI 工作负载。
摘要
Google 介绍了其定制张量处理单元 (TPU) 如何设计以处理庞大的 AI 工作负载,并强调了最新一代 TPU 具备处理 121 exaflops 计算能力的特点。
<img src="https://storage.googleapis.com/gweb-uniblog-publish-prod/images/What_is_a_TPU_social.max-600x600.format-webp.webp">通过这段新视频,了解 Google TPU 如何驱动日益复杂的 AI 工作负载。
查看缓存全文
缓存时间: 2026/05/08 07:57
# 我们的 TPU 如何驱动日益繁重的 AI 工作负载
来源: https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/what-is-a-tpu/
在您每天使用的 Google 产品背后,有着专为大规模数学运算而设计的定制芯片。它们被称为 TPU,即张量处理器(Tensor Processing Units)。
十多年前,我们专门为了运行 AI 模型而从零开始设计 TPU (https://cloud.google.com/transform/ai-specialized-chips-tpu-history-gen-ai?e=13802955)。基本上,AI 模型需要大量的数学运算才能正常工作,而 TPU 能够以极快的速度处理复杂的数学计算:最新一代的 TPU (https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/tpus-8t-8i-cloud-next) 可提供 121 exaflops 的算力,其带宽是前一代的两倍。
观看下面的视频,了解更多关于这些小巧却功能强大的处理器的信息。
相似文章
第八代TPU:面向智能体时代的双芯片设计
Google发布第八代TPU:TPU 8t用于训练,TPU 8i用于推理,专为大规模、高能效AI智能体工作负载打造,将于今年晚些时候推出。
第八代 TPU 架构深度解析
Google 发布第八代 TPU 8t 与 TPU 8i,专为大规模预训练与推理设计,集成 SparseCore、原生 FP4,并支持 9,600 芯片级超节点,为世界模型与智能体 AI 提供算力。
我们推出了两款专为智能体时代打造的专用 TPU。
谷歌宣布推出两款新型专用 TPU 芯片:TPU 8i 和 TPU 8t,分别旨在优化 AI 智能体的推理能力以及大模型的训练效率。
谷歌刚刚发布最新AI芯片
谷歌在 Cloud Next 大会上发布第八代 TPU(8t/8i)与全新 Gemini Enterprise Agent Platform,并透露目前 75% 的新代码由 AI 生成。
AI淘金热进入最危险阶段
谷歌通过向外部客户开放TPU并瞄准推理市场,正激进挑战英伟达在AI芯片领域的霸主地位,或将重塑全球AI经济格局。