🔥 如果 AI 进入全民推理时代,DRAM 需求可能会超出所有人模型

现在市场几乎所有人都在讨论 GPU、HBM、算力中心。

但真正的问题可能是:

如果未来几十亿设备同时开始运行 AI inference,

整个世界的 memory capacity 够吗?

因为 AI 下一阶段的瓶颈,可能不再只是 compute。

而是 memory。

而且不是单一 memory。

而是完整的 memory hierarchy。

The Five Layers of Memory

Near Memory:

最靠近 GPU 的 memory layer。

核心是超高带宽。

SK hynix

Samsung

$MU

这一层目前几乎由 HBM 主导。

因为 GPU 再强,如果 memory bandwidth 跟不上,算力也无法真正释放。

Main Memory:

很多人可能还没意识到,这层未来的重要性正在快速上升。

SK hynix

Samsung

CMXT

$MU

当 AI 从训练进入全民 inference 时代之后,系统需要的开始不只是速度。

而是巨大的 DRAM capacity。

未来无论是 AI PC、AI 手机、企业 Copilot、Agent、机器人、自动驾驶、边缘 AI,背后都会不断推高 memory usage。

GPU 越强,越需要更大的 memory pool 去喂数据。

否则算力会被浪费。

而市场现在可能仍然用“传统周期股”的方式在看 DRAM。

但 AI 可能正在把一部分 DRAM 需求,慢慢转变成 AI infrastructure demand。

Expansion Memory:

当模型越来越大之后,memory 开始进入“扩展能力”竞争。

SK hynix

Samsung

$MU

$ALAB

$MRVL

$MCHP

$RMBS

这一层已经不只是 memory 本身。

而是:

memory 如何连接、同步、扩展、共享。

未来大型 AI cluster 的竞争,很可能会从 GPU 数量竞争,进入 memory fabric 与 interconnect 架构竞争。

这也是为什么越来越多人开始关注:

CXL、memory pooling、high-speed interconnect。

Contexted Memory:

AI 系统真正落地之后,开始越来越依赖 context retrieval。

SK hynix

Samsung

Kioxia

$MU

$WDC

$SNDK

$SIMO

这一层进入 NAND、SSD、controller、storage pipeline 的世界。

因为未来很多 AI 能力,本质上取决于:

能不能快速读取正确的数据。

尤其 RAG、Agent、企业 AI 普及之后,storage latency 与 context access 会越来越关键。

Data Lakes:

很多人低估了 AI 最底层的 infrastructure。

长期数据存储。

$STX

$WDC

$DELL

$NTAP

$P

$HPE

$IBM

因为没有 data lake,就没有 AI。

训练数据、

企业数据库、

向量数据库、

长期知识库、

AI retrieval system,

最终都需要 storage infrastructure。

而 AI 越普及,全球数据量只会继续指数级增长。

真正有意思的地方在于:

现在华尔街仍然习惯把这些公司拆开估值。

但 AI infrastructure 正在越来越像:

一个完整的 memory ecosystem。

GPU 只是入口。

真正长期决定 AI 上限的,

可能是整个 memory stack 能不能跟上。

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论1

  • 推荐
  • 最新
  • 取经
    ·05-14 14:37

    存储

    回复
    举报