AMD呼吁IT领导者重新思考AI基础设施规划:代理型AI不仅仅是往GPU机箱里加更多CPU
摘要
AMD认为,代理型AI需要重新思考基础设施规划,需要专用的CPU机架来处理编排和控制工作负载,将CPU:GPU比例从1:8或1:4转变为1:1或更高,而不是简单地给GPU密集型服务器增加更多CPU。
据预测,随着AI从GPU密集型系统转向更加平衡的系统,CPU需求将翻倍以上。讨论的焦点似乎在于CPU:GPU比例从1:8或1:4变为1:1或大于1:1,因此需要更多CPU。AMD指出,人们对代理型AI的系统与基础设施规划存在误解。许多人(包括IT专业人士)认为,只需在GPU密集型服务器机架中增加更多CPU、每个刀片增加更多CPU,或在同一机架中增加更多CPU刀片即可。但现实是,这些GPU密集型机架中的CPU充当的是处理调度和I/O的头节点,并不服务于代理型AI的目的。新引入的工作负载,如编排、代理控制和安全,是一类独立的工作负载,必须在专门的代理型纯CPU机架上运行,这些机架作为一个新层级,规模与GPU推理相当,类似于分布式系统。随着基础设施方程式的改变,IT规划者必须规划更多的CPU容量。 https://www.amd.com/en/blogs/2026/agentic-ai-changes-the-cpu-gpu-equation.html
相似文章
AI agents 正在改变人们对计算成本的看法
本文讨论了AI代理工作流如何将优化重心从单纯的推理成本转向更广泛的挑战,如延迟、编排开销和可靠性。文章强调了向混合架构和动态模型路由发展的趋势,以应对这些多步骤工作流的复杂性。
AMD 和 OpenAI 宣布战略合作伙伴关系,部署 6 吉瓦 AMD GPU
AMD 和 OpenAI 宣布战略合作伙伴关系,将部署 6 吉瓦 AMD Instinct GPU,初期部署 1 吉瓦,从 2026 年下半年开始。AMD 将向 OpenAI 发行最多 1.6 亿股认股权证,归属与部署里程碑和财务目标挂钩。
AMD将发布可插拔GPU
AMD即将发布基于PCIe的新型可插拔Instinct GPU,面向企业AI市场,为本地大语言模型部署提供潜在的新硬件选择。
很遗憾要让大家失望了……目前我们还没有实现AGI所需的硬件
本文指出,当前的GPU硬件在本质上不足以支撑AGI的实现,计算架构必须进行彻底的重新设计。
感觉AI正在进入其“基础设施问题”阶段
文章强调了AI行业的一个转变,焦点正从单纯的模型基准性能转向延迟、编排和成本效率等基础设施挑战。这表明AI正成熟为一个系统问题,实际体验变得比原始模型能力更重要。