⚡$META 联手 $AMD 部署 6GW GPU:AI 算力不再只属于 $NVDA

当 $META 宣布与 $AMD 建立战略合作,计划部署 6GW 的 AI GPU 算力时,很多人第一反应是震惊。

但如果从产业结构来看,这一步其实非常合理。

就在一周前,市场还在庆祝 $META 与 $NVDA 的合作扩展,并有人据此得出一个结论:

AI 算力只有一个选择——$NVDA。

但现实恰恰相反。

没有任何一家 AI 实验室愿意把自己的未来完全绑定在单一供应商身上。

原因很简单:

风险太高。

当算力成为 AI 时代最关键的资源时,任何公司都不会允许自己的技术路线、成本结构和扩展能力完全依赖一个供应商。

这也是为什么现在几乎所有 AI 实验室都在做同一件事:

扩展算力栈。

不再只有一种架构,而是多种并行:

$NVDA

$AMD

TPU

Trainium

这种策略的核心逻辑非常清晰——

避免被锁定在单一平台。

因为一旦被锁定,定价权就不在客户手里。

而 $NVDA 目前接近 75% 的毛利率,在某种程度上已经被行业戏称为“GPU 税”。

当 AI 投资规模达到数百亿美元级别时,任何企业都会试图降低这种依赖。

这也是为什么越来越多公司开始:

自研芯片

采购替代 GPU

在不同架构之间分散算力

但如果把视角再往供应链上游看一步,会发现一个更重要的变化。

真正的权力,其实已经从芯片设计公司转移到了更上游。

AI 时代真正的瓶颈环节是:

先进晶圆制造

先进封装

高带宽内存

换句话说,真正决定 AI 算力扩张速度的不是谁设计芯片,而是谁能提供产能。

当越来越多公司同时争夺这些资源时,供应链的价值会进一步集中。

所以这笔 $META 与 $AMD 的合作,意义不只是一个订单。

它反映的是 AI 基础设施的一个结构变化:

算力平台正在多元化。

供应链瓶颈正在上移。

定价权正在重新分配。

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论

  • 推荐
  • 最新
empty
暂无评论