芯片高毛利不等于高利润


把 AI 产业链拆开看,上游最吸睛的是芯片,尤其是 GPU 与加速器。其价值捕获的底层逻辑很简单:算力仍是稀缺品,且软硬件生态、开发工具与客户迁移成本把「一代领先」放大成「多代领先」。这也是为什么 GPU 设计龙头能拿到近似平台型的毛利水准:NVIDIA 在财报新闻稿中披露,FY2025 期末指引的 GAAP 毛利率约 70.6%(非GAAP 约 71%)。这个数字意味著,从价值链角度,上游芯片商在「单位产品」上的利润空间极厚,且在供需紧张时更具议价能力。

但芯片环节的「高毛利」并不必然等同「最大利润池」。原因在于它受制于两个天花板:其一是供应链瓶颈(先进封装、HBM 供给、产能配置),其二是客户议价反扑(云厂自研加速器、采购多元化)。因此,上游更像是以高毛利捕获「稀缺租金」,利润波动相对跟著景气与供需走。对投资人而言,芯片的核心指标是「能不能守住 ASP 与毛利」,以及产能/封装约束是否让增量需求无法完全转化为收入。

高效率的代工、高杠杆的云端

从芯片设计往下走到制造与系统整合,价值捕获逻辑开始分叉:一边是「重资本、靠良率与规模」的先进制造,另一边是「重工程、靠资源调度」的伺服器与资料中心系统。以晶圆代工为例,市场常以毛利/营业利益率衡量其效率与议价:台积电 2024 年年报披露毛利率 56.1%、营业利益率 45.7%。这在制造业中极为罕见,反映先进制程的技术门槛与客户黏性,让代工不只赚加工费,而是在先进节点上拥有一定程度的定价权。从「利润池」角度,代工虽然单位毛利低于芯片设计,但它的资本支出巨大、营收盘子大,利润池可观;同时其风险也更像长周期资本开支赌局:一旦需求斜率放缓或竞争加剧,折旧与利用率会把盈利弹性放大到下行端。

更值得注意的是「系统层」正在把传统硬件利润重新洗牌。AI 训练/推理不是买一颗 GPU 就结束,而是整套机柜、网路、散热、电力与软体堆叠。这一层的价值捕获呈现两种结果:对一般 OEM/ODM 而言,更多是量大、毛利薄;但对拥有软体平台与客户入口的云厂而言,系统层会变成把资本转成长期现金流的「杠杆点」。也因此,你会看到云端巨头在资本开支上极度激进——例如《金融时报》近期报道 Amazon 计划以大规模资本投入推进 AWS 的 AI 布局,就是在提前锁定下一轮「云端算力供给」的定价权。

谁握住客户与计费?

真正决定 AI 产业链利润最后流向哪里的,往往是下游的「计费点」:谁能把算力变成可持续的订阅、用量计费或嵌入式增值服务,谁就能捕获更稳定的利润池。云端是最直接的例子:Amazon 最新业绩公告披露,AWS 2025 年(对应公告口径)分部经营利润 456亿美元,而 2024年为 398亿美元。同时,Amazon 在 2024 年第四季业绩公告中披露 AWS 2024 年分部销售额 1076亿美元。把两者对照,可以推得 AWS 的分部经营利润率大约落在 三成以上(约 37% 左右)——这种「高营业杠杆」正是云端价值捕获的本质:硬件折旧很重,但一旦利用率爬升、服务叠加,增量收入能更快转成利润。

模型层则是另一种「利润池竞争」。大模型本身未必天然高毛利,因为推理成本与价格战会拉扯毛利;但一旦模型与工作流、资料、企业软体深度绑定,它就可能变成「分配权」:你不只是卖模型 API,而是把 AI 变成 CRM、Office、客服、开发工具等既有订阅的加价包,于是利润被重新分配到握有客户关系的一方。这也是为什么 Microsoft 在 2024 财年强调收入与营业利益增长,并指出 Azure 的规模化带动毛利提升(即便毛利率因 AI 基础设施投入而受结构影响)。

义合控股投资者关系部

(芯片与算力系列之32) 


$YEE HOP HLDGS(01662)$  ‌‌$NVIDIA(NVDA)$  ‌‌$Taiwan Semiconductor Manufacturing(TSM)$  ‌‌$Advanced Micro Devices(AMD)$  ‌‌$Intel(INTC)$  

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论

  • 推荐
  • 最新
empty
暂无评论