400-6009-602

DRAM 与 NAND 价格齐涨,恰似春潮拍岸,既是半导体周期回暖的表征,更是算力时代加速来临的注脚。在人工智能基础设施需求高涨的背景下,存储不再只是幕后角色,而正被推至产业舞台中央。
花旗集团最新研究指出,英伟达即将推出的 Vera Rubin 架构 AI 服务器,或将在未来数年内成为撬动全球 NAND 市场的重要杠杆。其影响的深度与广度,已远超传统服务器升级范畴,正在触及存储产业的结构性拐点。
花旗的核心判断是:
Vera Rubin 并非一次简单的算力升级,而是一场“算力—存储协同放大”的系统性跃迁。
在英伟达公布的 NVL72 标准配置中:
单台 AI 服务器:最高额外搭载 16TB NAND
单个机架:SSD 总容量约 1,152TB(1.15PB)
这意味着,AI 服务器的硬件属性正在发生根本变化——
从过去的“计算密集型”,迈向**“计算 + 存储双密集型”**。
在这一架构下,NAND 不再只是配套元件,而开始具备与算力同等重要的战略地位。
答案是否定的。
Vera Rubin 架构的本质变化,在于存储职能的重构。
在超大规模 AI 训练与推理体系中,NAND 正承担起三重关键角色:
随着模型参数量与数据集规模持续膨胀,PB 级数据需被高频调用。本地高容量 NAND 能显著降低对远端存储与网络带宽的依赖,成为 AI 集群的数据蓄水池。
在 GPU—GPU、GPU—CPU 通信受限时,高性能 SSD 成为延迟可控的“算力缓冲区”,其系统价值已接近 HBM 与 DRAM 的下游补充。
在推理阶段,Embedding、KV Cache 等数据逐步前移到节点侧存储,本地 NAND 已成为提升吞吐率与能效比的关键变量。
Vera Rubin 消耗的不是“更多 NAND”,而是**“更核心的 NAND”**。
NVL72 单机架 1.15PB 的 SSD 配置,实则揭示了 AI 服务器设计理念的三大转向。
超大 GPU 集群决定了数据切分更细、访问更频繁、IO 容忍度更低,“就近存储”从优化选项升级为系统刚需。
在 AI 集群中,网络成本(交换机、光模块、功耗)呈非线性上升。增加本地 NAND,实质是在用存储资本支出,对冲网络与能耗支出,具备明确的经济合理性。
其配置需求指向的是:
高耐久(DWPD ≥ 1)
高并发
高顺序读写性能的企业级 SSD
这意味着,单位 TB 的价值密度远高于行业平均水平。
根据花旗的情景预测:
| 年份 | 预计出货量 | 对应 NAND 需求 |
|---|---|---|
| 2026 年 | 约 3 万台 | 3,460 万 TB |
| 2027 年 | 约 10 万台 | 1.152 亿 TB |
对应全球 NAND 总需求占比:
2026 年:约 2.8%
2027 年:约 9.3%
在一个本就供给收紧、扩产克制的市场中,这已不是边际扰动,而是足以改变供需曲线斜率的决定性力量。
从产业经济学角度看,关键不在“比例”,而在弹性结构。
先进制程资本开支高
扩产周期长(12–18 个月)
厂商更倾向于控制供给以维持利润
→ 短期供给弹性极低
长周期资本预算
订单可见度高
一旦部署,难以中途缩减
→ 更接近“基础设施刚需”,而非消费电子周期品
高端 SSD 率先涨价
向中端 NAND 扩散
抬升全行业 ASP 中枢
这一路径,正是 DRAM 在 HBM 驱动下已经验证过的现实。
答案是肯定的。
至少有三大变量尚未被完全计入:
Rubin Ultra:更高并行度 → 更高本地存储需求
Feynman GPU 架构:推理端存储前移趋势加速
软件栈演进:数据越来越靠近算力节点
这些因素一旦叠加,NAND 需求曲线或将呈现阶梯式上移,而非线性增长。
从更宏观的产业视角看,AI 对 NAND 的影响,已超越单一景气周期:
从可替代器件 → 算力体系关键资产
从成本中心 → 性能与效率杠杆
从价格跟随者 → 局部定价权变量
NAND 的估值逻辑,正在由“周期品”向“基础设施资产”靠拢。
算力奔腾如江河,而存储,正是承载其势的河床。
Vera Rubin 的出现,并非简单放量,而是在加速河道的拓宽与加深。
对 NAND 产业而言,这既是压力,也是机遇;
既是周期,更是时代。
未来数年,NAND 市场的每一次波动,都难以绕开 AI 服务器 这一时代坐标。