等也是一种策略 如何等在哪里等
04-30 13:56

🔥Intel CEO 点破关键变量:CPU:GPU 从 1:8 走向 1:1,真正受益的可能不是你以为的那一层

市场还在盯着 GPU 数量增长,但结构已经在发生变化。

当 $INTC 管理层确认 CPU 与 GPU 的部署比例正从 1:8 向 1:1 靠拢,这不只是“多装点 CPU”,而是整个 AI 基础设施的重心开始移动。

这背后真正放大的,是“非训练侧”的算力需求。

过去一轮 AI 基建,核心是 GPU 集群,用来训练和推理模型。

但现在新增的,是另一套系统:

独立的 CPU 集群。

这些并不是 NVIDIA 体系内的 CPU,而是以 Xeon 为代表的传统服务器架构,专门用来做:

Agent orchestration

RAG pipelines

Tool calling

Multi-agent coordination

也就是说,模型不再只是“算”,而是开始“调用、组合、记忆、协同”。

这一步,才是 Agentic AI 的真正落地。

关键变化在于,每一个这样的 CPU 节点,都不是轻量级的。

传统服务器的 DRAM 配置大约在 128GB 到 256GB。

现在 AI 优化服务器,已经来到 512GB 到 1TB,甚至更高。

这意味着什么?

每新增一个节点,带来的不是线性需求,而是一次“高密度存储需求释放”。

而且这一部分,属于服务器 DRAM。

利润结构上,很多情况下甚至比 HBM 更稳定。

当 CPU:GPU 比例从 1:8 向 1:1 靠拢:

不是 CPU 增长 8 倍这么简单。

而是:

更多 CPU 节点 × 每个节点更高 DRAM 配置

叠加之后,整体需求放大接近 16 倍量级。

这还只是 DRAM。

另一条被同步拉动的是存储。

随着模型规模扩大、context window 增长,每个节点需要的 SSD 容量也在同步提升。

换句话说:

不仅“内存”在涨,“持久存储”也在涨。

与此同时,GPU 侧并没有放缓。

更大的 context window → 更高的 HBM 容量需求

新一代架构 → 更高带宽

于是出现一个非常关键的结构:

两条需求曲线,同时向上。

一条来自 GPU(HBM)

一条来自 CPU 集群(DRAM + SSD)

方向一致,没有对冲。

这就是为什么单看 GPU 需求,很容易低估整个产业链的斜率。

对公司层面的映射开始变得清晰:

$MU

$SAMSUNG

$SK HYNIX

受益的,不只是 HBM,而是整条存储曲线被重新抬高。

更重要的是,这种需求不是短周期驱动。

它来自架构变化。

一旦 Agentic AI 成为默认形态,基础设施就必须围绕“记忆 + 协同”重新设计。

这和过去的服务器升级完全不同。

问题就变成了:

市场现在给这些公司的估值,是按照“周期股”在定价,还是已经开始反映“结构性需求上移”?

如果是前者,那意味着还有一段重新定价的空间。

如果是后者,那接下来看的就不是需求,而是供给能不能跟上。

你更倾向于认为,这是一次估值重塑的起点,还是仍然只是半导体周期里的又一轮上行?

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法