GTC前夜:光模块,正在成为AI算力最被低估的主线

美股研究社03-05

"当算力增长逼近物理极限,真正决定AI上限的,不再是GPU数量,而是数据在芯片之间流动的速度。"

【如需和我们交流可扫码添加进社群】

英伟达GTC大会即将召开之际,全球AI产业的目光再次聚焦于黄仁勋的 keynote。

但这一次,市场的期待可能正在发生微妙变化:除了新一代GPU的性能参数,投资者开始更关注一个此前被低估的领域——光通信。

当AI集群规模从数千卡迈向数十万卡,当模型参数从千亿级突破万亿门槛,一个更深层的瓶颈正在浮现:算力增长的极限,不再取决于单颗芯片的峰值性能,而取决于数据在芯片之间、服务器之间、数据中心之间的流动效率。

这或许意味着,AI硬件投资的下一条主线,正在悄然切换。

算力瓶颈转向"数据流动":

AI网络成为新战场 

过去两年,AI产业几乎所有关注点都集中在GPU本身。从NVIDIA的H100到Blackwell架构,从AMD的MI300到自研芯片的崛起,市场围绕算力芯片展开了一场规模空前的资本竞赛。估值、产能、交付周期,每一个变量都被反复定价。

但随着AI集群规模进入数万乃至数十万GPU时代,一个更深层的问题开始浮现——算力增长的瓶颈正在从计算转向通信。

在大规模AI训练中,GPU之间的数据交换量呈指数级增长。以万亿参数模型为例,单次前向传播需要在数千张GPU之间同步梯度与激活值,数据交换量可达TB级别。当集群规模扩大,网络带宽、时延和功耗开始成为决定训练效率的关键变量。

这意味着,AI算力网络的核心逻辑正在发生根本性变化:GPU不再是唯一瓶颈,光通信正在成为新的基础设施。

在传统数据中心,网络带宽往往按"过剩"设计,因为计算任务相对独立。但在AI集群中,所有GPU需要高频协同,网络利用率可长期维持在80%以上。此时,任何带宽瓶颈或时延抖动,都会直接拖慢整体训练进度。

正因如此,即将到来的英伟达GTC大会,被视为AI互联技术的重要分水岭。市场关注的焦点,不再只是新一代GPU的算力提升,而是围绕Scale Out(横向扩展)与Scale Up(纵向扩展)的网络架构升级。

Scale Up关注的是单机柜内GPU的互联密度提升,要求更高带宽、更低时延的片间通信;Scale Out则聚焦跨机柜、跨数据中心的集群扩展,要求更高效的光互联方案。在这场变革中,传统光模块架构正在被新一代技术替代。而谁能率先突破互联瓶颈,谁就可能在下一轮AI军备竞赛中占据先机。

CPO与NPO崛起:

光模块进入"架构革命"

要理解光通信为何成为新焦点,需要先回顾传统数据中心网络的架构局限。

在传统设计中,光模块通常以独立组件存在,通过PCB板与交换芯片连接。

这种"可插拔"架构优势在于灵活性强、更换方便,但在AI超大规模集群中开始暴露明显问题:首先是功耗过高,电信号在PCB板上传输距离越长,损耗越大,需要更高功率驱动;其次是带宽受限,单通道速率逼近物理极限,难以满足TB级互联需求;最后是信号损耗严重,高频信号在长距离传输中衰减明显,影响集群同步效率。

解决方案正是市场热议的两条新技术路线——CPO(共封装光学)与NPO(近封装光学)。

CPO的核心逻辑,是将光引擎直接与交换芯片封装在同一基板上,从而大幅缩短电信号传输距离,降低功耗与损耗。

理论上,CPO可将互联功耗降低30-50%,同时支持更高带宽密度。

NPO则采取折中方案:光引擎与交换芯片封装在相邻位置,通过更短的内部互联实现类似效果。

虽然性能略逊于CPO,但工艺难度更低,产业化节奏更快。

即将亮相的GTC大会上,英伟达预计将展示三款关键CPO交换机产品。

首先是Quantum 3400,采用InfiniBand协议结合CPO技术,预计2027年初量产,主要面向AI训练集群内部互联场景;其次是以太网6800,基于Ethernet协议与CPO架构,预计2026年底量产,服务于通用数据中心的Scale Out需求;最后是以太网6810,采用Ethernet协议搭配NPO方案,同样预计2026年底量产,定位为过渡期的混合部署方案。

这些产品标志着CPO技术从实验室走向产业化的重要一步。

更关键的是,供应链的准备速度正在明显加快。市场消息显示,TSMC在相关封装环节的良率已提升至约90%,而CW光源、Shuffle和FAU等关键环节的供应链也已进入备货阶段。

这意味着一个重要信号:CPO正在从技术验证阶段,进入产业化前夜。

一旦进入量产周期,光模块产业链的价值结构将被彻底重塑。传统可插拔光模块厂商若无法快速切换技术路线,可能面临份额流失;而提前布局CPO/NPO的公司,则可能享受新一轮估值溢价。

 英伟达锁定供应链:

光引擎需求或迎爆发

真正引发市场关注的,是英伟达在GTC大会前夕的一笔战略投资。

据多方消息,英伟达斥资40亿美元入股两大光通信巨头——Coherent Corp与Lumentum。在投行看来,这并不仅仅是财务投资,而是典型的供应链锁定策略。

随着下一代AI服务器架构升级,光引擎需求可能出现爆发式增长。而英伟达通过股权绑定,确保在产能紧张时优先获得供应,同时深度参与技术路线定义。

在Scale Up架构方面,英伟达预计将在GTC展示Rubin Ultra光入柜方案。这一方案的关键变化在于:不仅交换芯片与光引擎共封装,网卡也可能与光引擎共封装。

这将带来一个巨大的需求变化:单GPU对应的光引擎数量,可能提升至约5.5个。

作为对比,当前H100架构下单GPU对应的光模块数量约为1-2个。如果Rubin Ultra架构得到确认并大规模部署,光引擎的需求增速将远超GPU本身。

具体来看,H100架构时代,单GPU对应光引擎数量约1.5个,互联带宽需求在400G至800G之间,功耗优化以当前水平为基准;进入Blackwell架构后,单GPU对应光引擎数量提升至约3个,互联带宽需求跃升至800G至1.6T,功耗优化目标降低20%;而到了Rubin Ultra阶段,单GPU对应光引擎数量可能达到5.5个,互联带宽需求进一步攀升至1.6T至3.2T,功耗优化目标则瞄准降低40%。

换句话说,在未来的AI服务器架构中,光引擎可能从"配套组件"升级为"核心瓶颈"。

如果这一架构在GTC大会上得到确认,市场对于光模块产业链的估值体系可能需要重新定价。传统按"光模块数量×单价"的测算框架,可能低估了CPO时代的技术溢价与集中度提升。

  结语:AI算力主线,

 可能正在悄然切换 

过去两年,AI投资主线几乎完全围绕GPU展开。从英伟达的市值飙升,到AMD、Intel的追赶叙事,再到各国自研芯片的政策支持,算力芯片享受了前所未有的估值溢价。

但科技产业的规律往往是:当核心硬件逐渐被市场充分定价,新的瓶颈就会诞生新的投资机会。

在AI集群规模不断扩张的背景下,算力竞争的核心正在发生迁移:从芯片算力,到数据互联。

而光通信,正是这场变革的核心基础设施。

如果GTC大会释放出明确的CPO产品化信号,那么AI硬件的下一条主线,很可能不再只是GPU。光模块产业链,或许正站在爆发前夜。

对投资者而言,关键不在于预测技术路线的最终胜负,而在于识别"产业化拐点":哪家公司的CPO/NPO方案率先通过大客户验证?哪个环节的供应链瓶颈最可能制约量产节奏?哪种商业模式能在技术迭代中保持议价权?

当这些问题开始有明确答案时,光通信的投资价值才真正显现。

历史不会简单重复,但往往押着相同的韵脚。当市场因GPU估值高企而犹豫时,或许正是重新审视AI基础设施全貌的最佳时机。

真正的算力革命,从来不只是芯片的故事。

免责声明:本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性做出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法