SK hynix 开始为 NVIDIA AI 服务器量产 192GB SOCAMM2

Reddit r/LocalLLaMA 产品

摘要

SK hynix 已开始量产专为 NVIDIA AI 服务器优化的 192GB SOCAMM2 内存模块,与传统 RDIMM 相比,带宽提升一倍以上,能效提升 75%,解决了 AI 训练工作负载中的内存带宽瓶颈。

hynix 刚刚开始量产一款面向下一代 AI 服务器的 192GB SOCAMM2 内存模块,这基本上是在试图解决现代 AI 系统最大的瓶颈之一。它没有采用传统的服务器 RAM,而是使用了手机中常见的 LPDDR5X,与 RDIMM 相比,带宽提升了一倍多,同时功耗降低超过 75%。该模块也是专门为 NVIDIA 即将推出的 Vera Rubin 平台打造的,这充分表明它旨在支撑大规模 AI 训练工作负载。GPU 固然备受瞩目,但内存正迅速成为真正的限制因素,而这一进展显然预示着行业未来的发展方向。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/20 08:40

# SK hynix 开始量产用于 NVIDIA AI 服务器的 192GB SOCAMM2 来源:https://nerds.xyz/2026/04/sk-hynix-192gb-socamm2/ 如果你认为 AI 进步全靠 GPU,那就只看到了故事的一半。内存正迅速成为真正的瓶颈,而 SK hynix 似乎急于从中获利。 该公司表示,已基于其最新的 1cnm LPDDR5X DRAM,开始量产 192GB 的 SOCAMM2 模块。这听起来可能像一堆字母组合,但背后的思路很简单:把通常用在手机里的低功耗内存,塞进对效率和密度要求前所未有的 AI 服务器中。 这也不仅仅是性能小幅提升。SK hynix 声称其带宽是传统 RDIMM 的两倍以上,同时功耗效率提升超过 75%。数据中心已经在为能源成本头疼,任何能改善这一指标的方案都会迅速引起关注。 这里真正引人注目的是合作层面。这些模块是专门为 NVIDIA 及其即将推出的 Vera Rubin(https://www.nvidia.com/en-us/data-center/technologies/rubin/)平台打造的。这清楚地指明了方向:大规模 AI 训练系统需要在低功耗下搬运海量数据。 SOCAMM2 本身也与服务器行业熟悉的标准有所不同。它采用更轻薄的设计和压缩连接器,使得模块更换更方便,也能在紧凑的服务器机架中装入更多模块。这一点并不张扬,但在实际部署中至关重要。 SK hynix 还抓住了一个趋势:AI 工作负载正重新向训练倾斜,而不再仅仅是推理。这一转向给内存带宽带来了巨大压力,而目前这正是扩展大型语言模型的最大限制之一。如果内存跟不上,系统其余部分就只能等待。 至于这是否真的像该公司所说的那样“树立了新标准”,尚有争议。但方向绝对正确。AI 基础设施看起来越来越不像 GPU 军备竞赛,而更像一场平衡游戏,内存正好处于中心位置。 - Brian Fagioli,NERDS.xyz 记者。Brian Fagioli 是科技记者兼 NERDS.xyz 创始人,以报道 Linux、开源软件、AI 和网络安全著称,为真正的极客提供直截了当的科技新闻。

相似文章