SK hynix 开始为 NVIDIA AI 服务器量产 192GB SOCAMM2
摘要
SK hynix 已开始量产专为 NVIDIA AI 服务器优化的 192GB SOCAMM2 内存模块,与传统 RDIMM 相比,带宽提升一倍以上,能效提升 75%,解决了 AI 训练工作负载中的内存带宽瓶颈。
hynix 刚刚开始量产一款面向下一代 AI 服务器的 192GB SOCAMM2 内存模块,这基本上是在试图解决现代 AI 系统最大的瓶颈之一。它没有采用传统的服务器 RAM,而是使用了手机中常见的 LPDDR5X,与 RDIMM 相比,带宽提升了一倍多,同时功耗降低超过 75%。该模块也是专门为 NVIDIA 即将推出的 Vera Rubin 平台打造的,这充分表明它旨在支撑大规模 AI 训练工作负载。GPU 固然备受瞩目,但内存正迅速成为真正的限制因素,而这一进展显然预示着行业未来的发展方向。
查看缓存全文
缓存时间: 2026/04/20 08:40
# SK hynix 开始量产用于 NVIDIA AI 服务器的 192GB SOCAMM2
来源:https://nerds.xyz/2026/04/sk-hynix-192gb-socamm2/
如果你认为 AI 进步全靠 GPU,那就只看到了故事的一半。内存正迅速成为真正的瓶颈,而 SK hynix 似乎急于从中获利。
该公司表示,已基于其最新的 1cnm LPDDR5X DRAM,开始量产 192GB 的 SOCAMM2 模块。这听起来可能像一堆字母组合,但背后的思路很简单:把通常用在手机里的低功耗内存,塞进对效率和密度要求前所未有的 AI 服务器中。
这也不仅仅是性能小幅提升。SK hynix 声称其带宽是传统 RDIMM 的两倍以上,同时功耗效率提升超过 75%。数据中心已经在为能源成本头疼,任何能改善这一指标的方案都会迅速引起关注。
这里真正引人注目的是合作层面。这些模块是专门为 NVIDIA 及其即将推出的 Vera Rubin(https://www.nvidia.com/en-us/data-center/technologies/rubin/)平台打造的。这清楚地指明了方向:大规模 AI 训练系统需要在低功耗下搬运海量数据。
SOCAMM2 本身也与服务器行业熟悉的标准有所不同。它采用更轻薄的设计和压缩连接器,使得模块更换更方便,也能在紧凑的服务器机架中装入更多模块。这一点并不张扬,但在实际部署中至关重要。
SK hynix 还抓住了一个趋势:AI 工作负载正重新向训练倾斜,而不再仅仅是推理。这一转向给内存带宽带来了巨大压力,而目前这正是扩展大型语言模型的最大限制之一。如果内存跟不上,系统其余部分就只能等待。
至于这是否真的像该公司所说的那样“树立了新标准”,尚有争议。但方向绝对正确。AI 基础设施看起来越来越不像 GPU 军备竞赛,而更像一场平衡游戏,内存正好处于中心位置。
- Brian Fagioli,NERDS.xyz 记者。Brian Fagioli 是科技记者兼 NERDS.xyz 创始人,以报道 Linux、开源软件、AI 和网络安全著称,为真正的极客提供直截了当的科技新闻。
相似文章
三星和SK加入OpenAI的Stargate计划以推进全球AI基础设施
三星、SK和OpenAI宣布战略合作伙伴关系,作为OpenAI Stargate计划的一部分。三星和SK将把先进内存芯片产能扩大到每月90万片DRAM晶圆,并在韩国探索AI数据中心开发,以支持全球AI基础设施建设。
一家小型公司抢了AMD的风头,凭借采用老旧DDR4和28nm芯片的PCIe AI加速器,以仅240W功耗在本地运行700B参数大模型,向Nvidia发起挑战
台湾初创公司Skymizer发布了HTX301,这是一款PCIe AI加速器,采用较老的28nm芯片和DDR内存,仅需240W功耗即可在本地运行700B参数的大语言模型,对Nvidia和AMD的高功耗GPU解决方案构成挑战。
台湾公司Skymizer发布HTX301 - 配备384GB内存、功耗约240瓦的PCIE推理卡
Skymizer发布HTX301,一款能够本地运行700B参数大语言模型、拥有高内存和低功耗的PCIE推理卡。
@CNET:Nvidia GTC 2026,黄仁勋谈“AI原生”投资
Supermicro 与 NVIDIA 发布交钥匙“AI Factory”参考架构,整合 Blackwell GPU、认证服务器、网络、存储与部署服务,让企业更快搭建集群级 AI 基础设施。
@CNET:NVIDIA CEO 黄仁勋在 GTC 2026 谈 NVIDIA 共封装光学
Supermicro 与 NVIDIA 在 GTC 2026 发布一站式“AI 工厂”机柜,提供预验证的整机柜级计算/存储/网络堆栈,加速企业 AI 部署。