AI PCB 第四阶段:从 GB300、Rubin、ASIC 到 1.6T,谁在把 PCB 价值量继续抬高

问就是加仓up
05-10 21:07

目 录

一、先把问题换成 value per rack,而不是 server units

二、GB300 到 Rubin:平台升级不是换芯片,而是重做板级系统

三、ASIC:不是 GPU 的反面,而是 PCB 价值量的第二条曲线

四、800G 到 1.6T:网络把高端 CCL 从服务器推向交换系统

五、800V/HVDC:电源架构把 PCB 价值量从信号板推到重铜板

六、ABF/FC-BGA:从 GPU 载板短缺,变成系统级 substrate upcycle

七、公司排序:谁先兑现,谁弹性最大,谁壁垒最硬

八、为什么这轮不是 2021 年 CCL 周期重演

九、投资结论:买的不是 PCB 概念,而是架构升级中的不可替代位置

AI PCB 第四阶段:从 GB300、Rubin、ASIC 到 1.6T,谁在把 PCB 价值量继续抬高

AI PCB 写到第四篇,最重要的判断要更直接:2026-2027 年 PCB 产业链不该再按“服务器台数”定价,而应按 value per rack 定价。GB300、Rubin、ASIC、800G/1.6T 交换、光模块、HVDC、midplane/backplane 和 FC-BGA/ABF 一起,把单机柜里的 PCB、CCL、铜箔、玻纤布和 ABF 载板从成本项推成交付项。谁能把下游架构升级变成自己的单位价值量提升,谁才是第四阶段真正的瓶颈资产。

AI PCB材料重估全解 — 从CCL涨价、玻纤布织机到ABF缺口与机柜升级

AI PCB 从材料重估到利润兑现:深南 30+层 MLPCB、TUC 高端 CCL、建滔材料一体化、NYPCB 欣兴 ABF 载板,谁先把涨价写进报表

先进封装三足共振进入 2027 价差期 — 欣兴电子 ABF 缺口 35%、联发科 TPU 协调芯片放量、CoWoS 满载万字全解

前面三篇的逻辑是一条从中游往两端推的链。第一篇讲材料重估:M8/M9 CCL、低 CTE 玻纤布、HVLP 铜箔、ABF 和机柜升级不再是普通成本项,而是 AI 交付瓶颈。第二篇讲利润兑现:深南、TUC、建滔、NYPCB、欣兴谁能把涨价写进收入、毛利率和资本开支。第三篇讲供给开闸:扩产公告不等于有效产能,真正卡住的是材料、设备、工艺、认证和资本五道门。

这一篇换一个方向,从下游架构反推 PCB 价值量。我的结论先放在前面:第四阶段最先看 TUC 和高多层 PCB,因为它们最容易先进报表;弹性最大看台光、建滔和 NYPCB,因为它们分别对应 M9/M10、材料一体化和 ABF 现货;壁垒最硬看欣兴、Ibiden 和能稳定做 30+ 层 MLPCB / high layer count PCB 的一线板厂,因为系统级认证和良率最难复制。换句话说,这篇不是再证明“AI PCB 受益”,而是要把“谁先兑现、谁弹性最大、谁壁垒最硬、谁风险最高”排出来。

为什么要这样写?因为市场到现在已经知道“AI PCB 很景气”,但对景气的拆法仍然容易停在两个浅层指标:一是 AI server 出货量,二是 PCB/CCL ASP 涨价。问题是,AI PCB 这一轮不是普通服务器周期。普通周期里,服务器数量上去,PCB 面积跟着上去;这一轮更复杂,GPU 平台、ASIC、交换系统、光互连、电源架构和封装基板同时升级,单位服务器、单位机柜、单位 AI chip 对应的板级材料价值都在变。

更直白一点,AI PCB 的第四阶段不是买“服务器多卖几台”,而是买“每一台服务器、每一个机柜、每一条网络链路、每一颗 ASIC 周边,需要更贵、更厚、更低损耗、更难做的板材和载板”。如果说前几篇是从供给端解释为什么涨价,那么这篇要回答:下游到底在发生什么,让客户愿意继续付更高的 PCB、CCL、ABF 价格?

我会把这条线拆成六个传导环节。

这张表是全文的骨架。AI PCB 不是一条单线,而是六条线同时往上拉。单看 GPU 出货,会低估 ASIC;单看 ASIC,会低估 switch 和 optical;单看服务器主板,会漏掉 HVDC power board;单看 GPU ABF,会漏掉 CPU、DPU、NIC、switch ASIC、CXL 这些系统级 FC-BGA。真正的增量不是一个部件,而是 AI rack 被重构以后,整个板级和载板层的价值重估。

最核心的模型,是把平台代际从“芯片升级”翻译成“板级价值升级”。H100/H200 到 GB200/GB300,PCB/CCL 价值已经从 OAM、UBB、compute board 和 switch board 抬高一轮;到 Rubin/Rubin Ultra,变量不再只是 GPU 本身,而是 package 数量、Vera CPU、switch fabric、midplane/backplane、power rack 和 FC-BGA/ABF 的系统级扩散。

这张表是本文的“硬模型”。如果只看服务器台数,可能会觉得出货波动很大;但如果看每一代平台的 board count、layer count、material grade、substrate count 和 power board,就会发现价值量仍在上行。AI PCB 第四阶段买的不是单一出货量,而是单位 rack 的材料含量继续变重。

一、先把问题换成 value per rack,而不是 server units

过去看 PCB,最常见的分母是出货面积、服务器数量、交换机数量。这个分母在传统电子周期里够用,但放到 AI 机柜里会失真。因为一台 GB200/GB300 或 Rubin 机柜,本质上已经不是“很多服务器堆起来”,而是一个 rack-scale compute system:GPU、CPU、switch、NIC、retimer、power、liquid cooling、backplane/midplane 都在同一个系统里共同设计。

当系统从 server-level 走向 rack-level,PCB 的估值逻辑会发生三层变化。

第一,单位 GPU 对应的 PCB/CCL 价值上升。H100/H200 到 GB200/GB300,compute board、switch board、UBB/OAM 和高速 CCL 的规格已经上台阶;到 Rubin/Rubin Ultra,机柜密度、功耗和互连要求继续抬高,midplane/backplane 或更复杂的板级互连会把材料要求继续往上推。

第二,单位机柜里的高性能逻辑芯片数量上升。传统写法容易只数 GPU,但 AI 系统里 CPU、DPU、NIC、switch ASIC、CXL 相关器件都在增加。每一颗芯片后面都有 substrate,每一个高速节点后面都有 PCB 和 CCL。单颗价值可能低于 GPU,但数量多、分布广,累积起来就是系统级需求。

第三,网络和电源不再是外围。800G/1.6T 交换、光模块、OCS/CPO/NPO、800V DC、BBU、PDU、DC/DC 全都把 PCB/CCL 从服务器内部推到机柜和数据中心基础设施。AI PCB 的边界正在扩大,从“服务器板”扩大到“机柜板”“电源板”“网络板”“光模块板”“封装载板”。

高盛在台湾 PCB/CCL 报告里给了一个很关键的框架:M8+ grade CCL 的 TAM 2024-2027 年复合增速约 130%,而整体 CCL 行业只有约 12%;到 2027 年,M8+ 可能占到整体 CCL TAM 的 20%。这个对比极其重要。它说明 AI PCB 的重估不是“CCL 行业整体变好”,而是 M8+ 这个高端切片长得远快于行业,且价格是行业平均的数倍。

M8+ grade CCL TAM will lead the overall CCL market growth.

这个短句背后,是本轮 AI PCB 的核心。普通 CCL 还在普通电子周期里,高端 M8/M9 CCL 已经跟着 GPU、ASIC、800G/1.6T switch 进入另一个增长曲线。把两者混在一起看,会同时低估龙头利润弹性、也高估普通供应商跟涨能力。

胜宏科技工厂参观报告则把 value per rack 写得更直接:AI server PCB/CCL 的增长不是单纯数量增长,而是出货、材料消耗和 ASP 同时上移。也就是说,量在涨,单价也在涨,且单价涨幅本身足够决定利润弹性。关键数据放在下面这张表里。

这就把第四阶段的核心问题说清楚了:如果一个供应商只吃到出货面积增长,它是 AI PCB 的 beta;如果它同时吃到材料等级、层数、客户认证、ASP 和毛利率,它才是 AI PCB 的 alpha。

二、GB300 到 Rubin:平台升级不是换芯片,而是重做板级系统

NVIDIA 平台升级最容易被写成芯片代际:H100/H200 到 B200/GB200,再到 GB300、Rubin、Rubin Ultra。这个写法对半导体主线没问题,但对 PCB 不够。PCB 更关心的是:平台升级以后,系统怎么连、怎么供电、怎么散热、怎么把 GPU/CPU/switch/HBM 放在一起。

Rubin Ultra 是一个很好的观察点。瑞银供应链分析认为,Rubin Ultra 预计 2027 年下半年推出,可能继续采用 2 GPU die CoWoS package,每个 package 包含 2 个 GPU die 和 8 个 HBM stack。这与部分市场此前讨论的 4 die 方案有差异。这个分歧本身不应简单理解为“规格下修”,而应理解为封装、CoWoS、substrate、rack density 之间的系统权衡。

Nvidia's Rubin Ultra sticking with 2-die CoWoS package.

如果 Rubin Ultra 继续 2 die package,单个 package 的极限尺寸压力低于 4 die 方案,但系统端未必降级。因为算力需求不会消失,可能通过更多 package、更多 rack unit、更高 rack density 和更高功率来实现。瑞银报告也提到,2 die 方案会提高 ODM rack unit count 和 value add revenue,并推动 power rack 从 660kW 继续向 1MW+ 升级。对 PCB 来说,这意味着需求可能从单个超大封装部分转移到更多系统板、更复杂机柜互连和更高功率配套。

这就是 AI PCB 和纯先进封装不同的地方。封装路线变化会在 ABF/CoWoS 上重新分配价值,但 rack-level 系统复杂度仍然上升。即使 GPU package 不从 2 die 跳到 4 die,更多 package、更高机柜密度、更强 host CPU、更复杂 switch fabric,也会继续推高 PCB/CCL 和 FC-BGA 需求。

这里要避免一个常见误判:把 GPU 平台升级只看作“GPU 单价”和“GPU 出货”。对 PCB 来说,真正重要的是每一代平台会不会带来更多板位、更高层数、更高材料等级、更复杂的互连拓扑和更高的可靠性要求。GB300/Rubin 不是简单替换 H100/H200,而是把 AI 服务器从单机服务器继续推向机柜级系统。

在这个过程中,midplane/backplane 可能成为最关键、也最容易被低估的 PCB 增量。传统服务器里,主板和背板是相对成熟的部件;AI rack 里,midplane/backplane 承担的是高速互连、模块连接、电源分配、信号完整性和机械可靠性。层数、面积、厚度、板翘、压合、阻抗、低损耗材料、热膨胀匹配都会变成系统稳定性的前提。

这也是为什么深南、胜宏、GCE 这类高多层 PCB 厂,不能只按“PCB 面积”估值。高层数、大尺寸、高速材料、多次压合和客户认证共同构成有效产能。AI rack 里,一块 midplane/backplane 如果失败,影响的不只是单个板位,而是整套机柜交付。

从投资角度看,GB300/Rubin 平台升级带来的不是单一赢家,而是三个层次的重估。第一层是高多层 PCB:深南、胜宏、GCE、沪电这类供应商吃到层数、面积和客户份额。第二层是高端 CCL:TUC、台光、生益、建滔吃到 M8/M9/M10 和低损耗材料。第三层是 ABF/FC-BGA:欣兴、NYPCB、景硕、Ibiden、SEMCO 吃到 GPU、CPU、DPU、switch ASIC 等高性能芯片 substrate 需求。

三、ASIC:不是 GPU 的反面,而是 PCB 价值量的第二条曲线

市场有时把 ASIC 和 GPU 写成竞争关系:ASIC 放量,会不会削弱 NVIDIA GPU?这个问题对芯片估值很重要,但对 PCB/CCL/ABF 来说,答案更复杂。ASIC 不是 PCB 需求的反面,很多时候反而是第二条增长曲线。

原因很简单。云厂自研 ASIC 的目标是更好的 workload customization、更低成本、更强推理效率。它并不消灭 AI server,反而增加了 AI server 的形态分化:full rack GPU server 继续存在,baseboard-based high power AI server 和 ASIC AI server 同时放量。对 PCB 来说,服务器形态越分化,板级设计、客户认证、材料组合和高层数 PCB 项目越多。

高盛服务器 TAM 报告预计,全球 AI server volume 对 AI chips 的需求在 2025/2026 年分别为 900 万和 1200 万颗,其中 ASIC 出货占比分别为 38% 和 40%。同一份报告还把基于 ASIC 和 GPU 平台的 baseboard-based AI server 2025/2026 年单位预估分别上调 25% 和 14%,理由是这类服务器更适合定制化,也能降低客户预算压力。

这张表说明,ASIC 对 PCB 是加法,不是减法。GPU 平台继续推动最高端机柜、最高功耗和最复杂互连;ASIC 平台推动更多云厂自研项目、更分散的 board design、更大规模的推理服务器和更高的定制化认证。两者一起,会让 PCB/CCL 需求从“一个大客户一条路线”变成“多个云厂多条路线”。

高盛台湾 PCB/CCL 报告也把 ASIC 写得很清楚:M8 grade CCL 主要由 800G 和 ASIC AI server 拉动,2025 年 TAM 可能同比约 300%;M8+ CCL 的关键应用包括 GPU/ASIC AI server 和 800G switch。报告还预计,M8+ CCL TAM 将从 2024 年约 3 亿美元,升至 2027 年约 36.21 亿美元。这里的重点不是某一年绝对值,而是增长速度和应用结构:ASIC 与网络共同把 M8+ 拉成高端 CCL 里最陡的曲线。

ASIC 还有一个容易被低估的价值:它让客户认证更值钱。GPU 平台虽然高端,但路线相对集中;ASIC 项目来自不同 CSP,不同芯片、不同板级设计、不同散热和电源方案,会产生更多认证组合。对供应商来说,进入一个 ASIC 项目,不只是拿一个订单,而是拿到未来几代定制硬件的学习曲线和客户粘性。

这也是为什么 GCE、胜宏、深南这些高多层 PCB 厂,以及 TUC、台光、生益、建滔这些 CCL 厂,要单独看 ASIC 暴露。高盛报告认为 GCE 在 CSP ASIC AI server 市场份额可能从 2024 年不到 30% 提升到 2025 年约 40%,成为最大供应商之一;胜宏报告也提到公司 MLPCB 和 HDI 已进入全球 GPU AI server 客户,并向多个 AI ASIC server 客户扩张。这个信息的价值在于,ASIC 正在成为高多层 PCB 厂的第二增长曲线,而不是 GPU 周期的尾部补充。

如果用一句话概括:GPU 决定 AI PCB 的规格上限,ASIC 决定 AI PCB 的需求宽度。前者让材料更贵,后者让项目更多。两条线同时成立,AI PCB 才不是单一 GPU 周期,而是 AI 基础设施材料周期。

四、800G 到 1.6T:网络把高端 CCL 从服务器推向交换系统

AI PCB 第四阶段最值得单独写的一条线,是 800G/1.6T 交换。原因很简单:很多人看 AI PCB 只看服务器主板和 GPU 载板,但网络升级会把高端 CCL 的需求从服务器内部扩展到交换机、线卡、光模块和背板系统。

训练集群越大,GPU/ASIC 之间的数据交换越重。推理进入 agentic 和长上下文以后,networking 也不再只是训练集群的配套,而是推理成本、延迟和吞吐的关键。800G/1.6T 交换不是一个“光模块故事”,它对 PCB/CCL 的要求很硬:更高速率、更低损耗、更严格阻抗、更高热密度、更复杂布线、更高层数。

高盛台湾 PCB/CCL 报告明确把 800G switch 和 ASIC AI server 放在一起,认为二者是 M8+ CCL 和 high layer count PCB 的关键驱动。报告预计,800G switch 和 ASIC AI server 的 PCB TAM 从 2024 年约 1.12 亿美元和 6.75 亿美元,升至 2025 年约 5.50 亿美元和 16.40 亿美元。这个增速解释了为什么 high-end PCB/CCL 供应商能在短期 ramp 里承受部分良率压力,因为项目本身的 ASP 和毛利率上限更高。

这里最容易犯的错误,是把 800G/1.6T 写成光模块供应链,而忽略交换机主板和背板。光模块当然重要,但交换芯片、switch PCB、line card、backplane/midplane 同样会消耗 M8/M9 CCL、HVLP 铜箔和高层数 PCB 产能。随着 1.6T 加速,板级材料的损耗预算更紧,供应商不能简单用上一代材料做延伸。

从公司映射看,TUC 是这条线里最直接的样本之一。TUC 已经是高端 switch CCL 的核心供应商,并在 400G/800G/1.6T switch、1.6T 光模块和 AI server 之间形成组合。台燿报告也显示,公司受益于 AI server、光模块份额提升和高压直流铜箔基板需求。光模块板面积小,但材料等级高、ASP 友好;switch board 面积更大、层数更高,是 CCL 和 high layer count PCB 的双重受益。

Coherent 和 Lumentum 财报线索也说明,1.6T 不是远期概念。Coherent FY26 Q3 收入达到 18.06 亿美元,Non-GAAP 毛利率 39.6%,Q4 指引继续上行;Lumentum FY26 Q3 收入 8.084 亿美元,同比增约 90%,Non-GAAP 毛利率 47.9%,经营利润率 32.2%。这些数据本身不是 PCB 数据,但它们验证了 800G/1.6T 光互连需求正在进入报表。光互连越快放量,对 switch PCB、光模块 PCB 和高端 CCL 的拉动就越扎实。

更重要的是,OCS、CPO/NPO 会改变网络系统的板级拓扑。传统可插拔光模块可以让光模块和交换机板有相对清晰的边界;CPO/NPO、OCS 和更复杂的光电混合,会让封装、PCB、散热、电源和光学器件耦合更紧。对 PCB/CCL 来说,这不是需求消失,而是形态迁移。供应商需要证明自己能在更高频、更高热、更短互连、更复杂封装边界下稳定交付。

所以,1.6T 对 AI PCB 的意义不是“光模块单价涨了”。它真正的意义是,网络层的速率升级把 PCB/CCL 的瓶颈从服务器主板扩散到交换系统。GPU 和 ASIC 提高算力密度,800G/1.6T 决定算力能不能互联,二者共同抬高材料规格。

五、800V/HVDC:电源架构把 PCB 价值量从信号板推到重铜板

如果只从高速信号看 AI PCB,很容易漏掉电源板。AI rack 功耗上升以后,供电架构正在从“服务器内部电源问题”变成“机柜级系统设计问题”。这条线会把 PCB/CCL 的增量从低损耗信号材料,推到 heavy copper CCL、厚铜板、PDU、BBU、DC/DC 和 power rack。

数据中心物理拐点报告里有一组关键数字:Blackwell/B300 单芯片 TDP 已经进入 1kW+,Rubin 约 2.3kW,Rubin Ultra 超过 3.5kW。芯片功耗上去以后,风冷不够,液冷成为主流;更重要的是,传统 AC/DC 多级转换在机柜级效率下降,800V DC(±400V)架构被 NVIDIA 在 NVL72 参考设计里推到 2027 年下半年试产、2028 年上半年量产的窗口。

这条线对 TUC、台燿、建滔这类 CCL 厂尤其重要。台燿报告提到 HVDC 需求在 2026 年下半年可能环比翻倍,铜箔规格从 2-3oz 升到 5-6oz,heavy copper CCL 已在 1Q26 贡献约 12% 收入。这个细节说明,AI PCB 的材料升级不只有低损耗,也有厚铜和高电流。信号板要求低损耗,电源板要求大电流、高可靠和热稳定。两类材料的价格逻辑不同,但都由机柜功率密度驱动。

TUC 的 HVDC 线索同样值得重视。公司不仅有 AI server CCL,还有 Trainium 3、1.6T 光模块、1.6T switch 和 HVDC heavy copper CCL 多条线。如果只把 TUC 当成“AI server CCL 涨价”,会低估它在机柜侧电源升级中的位置。HVDC 项目一旦放量,TUC 的收入结构就不只是服务器主板,而是从服务器、网络扩到电源。

从供给角度看,HVDC 也不是普通扩产能解决。5-6oz 铜箔、heavy copper CCL、DC/DC 转换器板、BBU/PDU 板,都需要可靠性认证。800V DC 的安全问题还涉及 SiC 器件长期可靠性和 DC 电弧熄灭。NVIDIA 参考设计给出 2027 年下半年试产、2028 年上半年量产,如果认证延迟,机柜密度和供电效率都会受影响。

但从 PCB 投资角度,这种认证慢反而是壁垒。只要客户把 power rack、HVDC、BBU、PDU 和服务器系统一起设计,能够提前进入项目、配合验证的 CCL/PCB 供应商就会获得更强粘性。电源板不像普通消费电子板可以快速换供应商,一旦进入系统级安全认证,替换成本很高。

所以,HVDC 是 AI PCB 第四阶段必须写的一条线。它证明 PCB 价值量不是只跟带宽走,也跟功率走。GPU/ASIC 越快,信号板越贵;rack 功率越高,电源板越贵。AI PCB 的价值量被“高速信号 + 高功率供电”两端同时推高。

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法