*内容仅为呈现不同市场观点与研究视角,并不意味着本公众号对文中观点结论认可。
2026 年初,全球资本市场的目光依旧聚焦在人工智能的浪潮之巅。然而,当大多数投资者还在争论 AI 算力是否已经透支了未来三年的增长预期,当媒体头条依旧被 NVIDIA 的新一代芯片发布会占据时,美股光通信板块却悄然走出了一波独立的强势行情。
数据显示,Lumentum、Coherent、Corning 等光通信龙头企业的股价接连刷新历史新高,其走势明显强于半导体指数与 AI 软件龙头。这一现象引发了业界的深思:在 AI 硬件的宏大叙事中,是否有什么关键环节被市场长期低估了?
这不是一次简单的情绪轮动,也不仅仅是资金的高低切换,而是一条被低估多年的产业逻辑开始正式兑现:在大模型规模指数级扩张的背景下,真正的瓶颈已从“算力芯片”转向“算力互联”。当 GPU 之间的数据流量呈几何级增长,光模块不再是配角,而成为 AI 基础设施的血管与神经。
过去两年,市场普遍认为算力即权力,谁拥有最多的 GPU,谁就拥有 AI 时代的定价权。但今年,美股 AI 硬件赛道最强的,不是芯片,而是光。这标志着 AI 基础设施建设进入了一个新的深水区——从单点算力的竞争,转向了集群效率的博弈。
算力狂飙之后,瓶颈从芯片转向“互联”
过去两年,AI 硬件的叙事几乎被 GPU 垄断。以 NVIDIA 为代表的算力供应商,将单卡性能推向了物理极限。从 A100 到 H100,再到下一代 Blackwell 平台,市场关注点始终停留在“每秒多少万亿次计算”这一核心指标上。投资者习惯于用算力密度来衡量一家科技巨头的能力,仿佛只要算力足够强大,智能就会自然涌现。
但真正的产业现实是,当数据中心进入万卡级、十万卡级集群阶段,算力不再取决于单卡性能,而取决于集群内部的数据交换效率。在大规模分布式训练中,成千上万张 GPU 需要协同工作,它们之间的通信开销成为了决定整体效率的关键。一个万卡级 AI 训练集群,内部东西向流量已远超传统云计算负载。GPU 之间的数据同步、梯度回传、参数更新,都在疯狂消耗带宽。
如果将 GPU 比作大脑,那么光模块就是连接这些大脑的神经纤维。当大脑数量增加到一定程度,神经纤维的传输速度如果跟不上,大脑再多也无法形成合力。这就是著名的“通信墙”问题。在早期的 AI 训练中,通信开销可能只占总时间的 10%,但在千亿参数乃至万亿参数模型的时代,这一比例可能高达 30% 甚至更多。一旦通信受阻,昂贵的 GPU 就会处于空闲等待状态,造成巨大的算力浪费。
以 Meta、微软、谷歌等超大规模数据中心为例,单个 AI 数据中心内部带宽需求已从 400G 迅速跃升至 800G,并开始规模部署 1.6T 光模块。行业测算显示,在 AI 训练场景下,每 1 美元的 GPU 投资,往往需要配套接近 0.5 美元的网络与光互联基础设施。这意味着,光模块不再是附属成本,而成为算力扩张的刚性前提。
在这一背景下,光模块行业迎来结构性拐点。不同于传统云计算周期性扩容,AI 数据中心对高带宽、低延迟、低功耗的需求呈现“指数级升级”。铜缆传输在高速率下损耗过大,距离受限,而光通信技术,恰恰是目前唯一可规模化承载这一流量洪峰的解决方案。
当算力密度提升十倍,光互联需求提升的不是线性,而是非线性。这是因为集群规模越大,节点间的连接复杂度呈平方级增长。因此,光通信行业的增长速度,在未来几年有望超越算力芯片本身。
从周期品到战略资产,光模块商业模式重估
历史上,光模块长期被视为“通信周期股”。需求随电信运营商的资本开支波动,利润率受制于激烈的价格竞争,估值中枢常年徘徊在制造业区间,通常在 15 倍至 20 倍市盈率之间。投资者习惯于在 5G 建设高峰期买入,在周期下行前卖出,将其视为一种波段操作工具。
但 AI 时代的到来,彻底改变了行业的定价逻辑。
首先,产品结构发生跃迁。800G 与 1.6T 光模块的技术门槛远高于早期 100G/200G 产品。高速率对硅光技术、封装工艺、热管理能力提出了极高要求。例如,硅光方案需要更高的集成度,CPO(共封装光学)技术则需要与芯片厂商深度协同。产业集中度因此快速提升,具备垂直整合与研发能力的厂商开始获得溢价。
Lumentum 凭借其在激光器与光组件领域的深厚积累,成为多家云厂商高速模块的核心供应商;Coherent 在光子芯片与先进封装领域深耕多年,技术壁垒明显,难以被轻易替代;而 Corning 则在光纤材料与数据中心布线领域形成垄断级优势,掌握了物理层的底层材料话语权。
更关键的是,客户结构发生了根本性变化。过去光模块主要面向电信运营商,如今核心需求来自超大规模云服务商与 AI 公司。这类客户订单体量更大、产品迭代更快。虽然它们的议价能力较强,但对供应稳定性要求极高。一旦进入核心供应链,往往形成长期合作关系,甚至共同研发下一代产品。这种绑定关系大大降低了客户的流失率,增强了收入的可见性。
于是,市场开始重新定价:光模块不再是低毛利“代工件”,而是 AI 基础设施中不可替代的关键部件。其商业模式从“制造驱动”转向了“技术驱动”。
与 GPU 龙头动辄 30 倍以上市盈率相比,光通信企业此前估值长期压在 20 倍以下。当基本面与行业地位被重估,估值扩张与盈利增长形成双击,这也是近期股价创历史新高的根本原因。投资者开始意识到,在 AI 军备竞赛中,卖“铲子”的人或许不如卖“连接铲子的绳索”的人赚钱。
争议与分歧——光模块会重蹈周期覆辙吗?
当然,市场并非没有质疑。任何资产的快速上涨都会伴随分歧,光通信板块也不例外。
反对者认为,AI 投资终究存在周期波动。一旦大模型训练需求放缓,或者算法效率提升导致对算力的需求下降,数据中心资本开支回落,光模块需求可能重演过去“过剩—降价—利润压缩”的老路。毕竟,硬件行业的历史就是一部产能过剩的历史。
但这一轮与过去的根本区别在于:AI 算力建设具备战略属性,而非单纯商业扩张。无论是美国科技巨头之间的竞争,还是全球范围内对主权算力的投入,AI 基础设施正在成为长期国家级与企业级战略投资。这种投入具有刚性,不会因为短期的经济波动而轻易停止。
更重要的是,技术代际升级尚未结束。从 800G 到 1.6T,再到未来的 3.2T,每一次带宽升级都意味着存量设备的替换需求。光模块行业第一次拥有类似半导体“持续迭代”的结构性增长曲线。在传统电信时代,一个标准可能使用五年;而在 AI 时代,光模块的迭代周期缩短至 18 个月左右。这意味着,即使总量不增长,结构性升级也能带来持续的营收动力。
从产业链角度看,GPU、交换机、光模块构成 AI 算力三角结构。芯片是大脑,交换机是中枢,而光模块是血管。一旦血管堵塞,再强的大脑也无法发挥。随着模型参数量的继续膨胀,对血管通透性的要求只会更高。
这正是今年美股市场给出的答案:真正稀缺的,不是算力本身,而是让算力流动的能力。在算力过剩的担忧甚嚣尘上时,互联能力的短缺才是真实的瓶颈。
光速时代,基础设施才是终极赢家
当市场情绪在软件与芯片之间反复摇摆时,光通信板块的持续走强提醒我们一个更朴素的事实:每一次技术革命,最终受益的往往是基础设施。
在铁路时代,最赚钱的不是某一家火车公司,而是铺设铁轨的企业;在互联网时代,最稳健的不是某一家网站,而是提供带宽的运营商;在 AI 时代,数据是石油,算力是引擎,而光,是输油管道。
如果说过去两年的主线是“谁拥有最多 GPU",那么未来数年的核心问题将变成“谁拥有最高效的算力网络”。当 AI 模型规模继续膨胀,数据中心规模继续扩大,光模块的角色只会愈发关键。它不仅决定了训练的速度,更决定了推理的成本,最终决定了 AI 应用的商业化边界。
这或许意味着,在这轮 AI 硬件浪潮中,最稳健、最持久的赢家,并不一定是站在聚光灯下的芯片巨头,而是那些让光速成为可能的公司。它们隐藏在数据中心机柜的深处,不直接面对消费者,却掌控着数字世界的脉搏。
对于投资者而言,理解这一点至关重要。当潮水退去,芯片可能会面临产能过剩的质疑,软件可能会面临商业化的拷问,但作为物理层基础设施的光通信,将在很长一段时间内,享受 AI 时代最确定的红利。光速时代,基础设施才是终极赢家。
精彩评论