2025半导体行业回顾与2026投资框架

美股小猫咪2
12-03

回顾 2025 年的半导体市场,最核心的一条主线其实可以浓缩成一句话:

AI 需求驱动,正在重构半导体基建的估值体系,也在重写整个 IT 产业链的价值分配。

从 2024 年开始,半导体基建用极快的速度在吞噬整个 IT 行业的利润池。

在标普 500 的 IT 板块里,半导体公司的净利润 EPS 占比,在短短两年内从不到 20% 抬升到了接近 40%,而且还在加速上升。

图像

半导体整体前瞻净利率从 2023 年的 25% 左右,抬升到 2025 年 11 月已经接近 40%+,明显超过了大部分互联网巨头的平均利润率。

图像

更关键的是:

就算回到 2020–2022 年那波“缺芯潮”,供给极度短缺,半导体的利润率和 IT 行业利润分配也没出现这么夸张的重排。这说明当下的变化,并不是一次普通的“缺货涨价”,而是整个商业模式的底层逻辑变了。

这就是故事的上半篇:

AI 需求把半导体从“互联网时代的基建配角”,推成了“利润分配的中心”。

从“流量 × 转化率”,到“每 token 毛利”

要理解这场利润重分配,得先回到商业模式的变化上。

互联网时代有几个关键特征:

单次请求的网络与算力边际成本极低;

内容/服务分发的边际成本几乎为零;

公司最大的成本是 OPEX,尤其是程序员、运营等人力成本;

CapEx 虽然也有,但更多是一锤子买卖,折旧压力远不如传统制造业。

所以,在那套范式下,最会赚大钱的是“流量型 + 订阅型”的互联网公司、云服务商和 SaaS 平台——它们是典型的“轻资产收租业”。

AI 时代把这个逻辑直接打碎了。

训练成本从“一次性投入”变成“长期持续投入”:

模型越大、版本迭代越频繁,训练流水线就几乎不会停。

推理成本不会随着硬件降价线性下降:

一方面是 inference scaling 成共识,另一方面是各垂直场景都倾向于用更大模型、更长 context 来保持竞争力——即便算力单价在通缩,单个请求的算力消耗未必降太多。

互联网公司历史上第一次,在资产负债表上背上了和 foundry 类似的:

大规模 AI 数据中心 + GPU/ASIC + 高速网络 + 配套电力基础设施,带来的巨额折旧。

换句话说,互联网公司原来是“人力 OPEX 为主”,现在又叠加了一层沉重的算力/硬件 CAPEX。商业模型开始慢慢从“流量 × 转化率”,转向“每 token 的毛利”。

于是利润分配发生了位移:

上一代的赢家是互联网公司 + CSP + SaaS 平台,它们靠用户数和订阅“收租”;

这一代,真正的“房东”变成了算力——GPU、HBM、先进封装和 AI 专用芯片,在 AI 时代成了新的收租业。

这也解释了为什么:

在没有发生“全球经济大爆发”的前提下,IT 行业总利润大致平稳,但半导体在 EPS 中的占比却一路从 20% 往 40% 走——利润被从上层应用抽回到了底层基建。

军备竞赛与 2030:NV、ASIC 和 AMD 的“标准答案”

当前半导体利润率之所以高得离谱,很大一部分来自前期“不计成本的军备竞赛”——hyperscaler 们宁可先把 GPU、HBM 和互联产能锁满,也不愿意在这一轮错位中掉队。

没有人想做冤大头,所以大家都在谋求一个折衷:

一边继续买 Nvidia 的“黄金标准”算力,另一边努力发展自研 ASIC 和 AMD 生态,来对冲 Nvidia 的议价权。

从 2030 年的远期算力分布回头看这个问题,会更清晰一些。

以 OpenAI 已经“明牌”的方向为参考:

它的路线大致是:10GW Nvidia、10GW 自研 ASIC、6GW AMD。这基本就是一个“标准答案”的缩影——

推理端,希望 ASIC 占比 >50%,GPU 再去做一些高端、长尾和复杂工作负载;

GPU 内部,AMD 和 Nvidia legacy 大致五五开;

训练端,因为灵活性、生态约束和软件栈,Nvidia 仍然会拿走 60% 以上,其余由 ASIC 和 AMD 分掉。

如果粗暴地按“2030 年 60% 推理 / 40% 训练”这一结构去加权,得到的算力份额,大致是:

Nvidia:约 38%

各家自研 ASIC:约 39%

AMD:约 23%

这个数字当然不是精确预测,但给出了一个大致边界:

长期来看,推理端 GPU 份额被 ASIC 吃掉一部分,是大概率事件;

Nvidia 的护城河会越来越集中在高端训练、复杂混合工作负载以及软件生态上;

AMD 中长期的 structural risk 在于:当各家 CSP 的 in-house ASIC 越来越成熟、新增推理算力更多倾向 ASIC 的时候,它要靠价格和性能极具吸引力,才能持续拿到增量 GPU 订单。

TPU、Meta 与 Nvidia:是真脱钩,还是砍价筹码?

最近风头很大的另一个故事,是 TPU 重新回到聚光灯下:

Google 把 TPU 推到台前,Anthropic 大量采购 TPU,Meta 也被爆出未来几年有总计约 100 亿美元级别的 TPU 订单,市场一阵惊呼:“Nvidia 要被 TPU 吃掉了?”

把数字摊开看,你文章里这个拆解其实非常冷静:

Meta 今年 CapEx 约 700 亿美金,明年可能到 1,100 亿,再往前看 6 年平均可能接近 1,600 亿/年这一量级;

6 年 100 亿左右的 TPU 订单,年均也就 16 亿左右,大概只占长期 CapEx 的 1%;

这还是在“推高”假设下算出来的,实际比例只会更小一点。

更关键的是:

Meta 买的是 TPU 云服务,不是大规模自建 TPU 机房;

招聘启事里看不到类似 Anthropic 那种“成建制招 TPU kernel engineer、TPU compiler”的投入迹象;

很大概率,这笔 TPU 预算既是供应商多元化的保险,也是和 Nvidia 讲价的一张牌。

所以与其说 Meta 在“转向 TPU 阵营”,不如说:

在训练端没法离开 Nvidia 的前提下,Meta 还是希望在推理端多准备几张底牌,以提高自己的议价权。

再叠加 TPU v8 在 HBM 等关键配置上明显保守,Rubin + Kyber rack 在 TCO 上更有潜力,Meta 最终仍然要高度依赖 Nvidia,这一点不会因为一笔 10B 的订单改变。

HBM / 内存:从“周期股”到“收租股”

如果说 GPU 是这轮 AI 军备竞赛的“门票”,那 HBM / DRAM 就是这一轮最扎实的结构性红利:你那句“推理即内存”,我觉得可以直接封神。

图像

AI workload 从训练逐渐往推理端延伸,推理比例越来越大;

推理对带宽极度敏感,带宽几乎可以直接等价成 token/s;

模型参数量持续膨胀、context length 一路往上拉,对内存的容量和带宽都是双击。

从 H100 的 80GB 回头看,现在新一代 GPU/ASIC 的内存配置已经到了完全“暴力美学”的程度:

Nvidia Ultra Rubin:单节点配备 1TB 级 HBM

Qualcomm AI200:768GB LPDDR

AMD MI400x:400GB+ HBM

短短三年,数据中心的高端内存规格直接拉了一个十倍。

更有趣的是端侧:

手机 / PC / 汽车 / 机器人这类终端,近两年主流旗舰机从 6GB 升到 8/12/16GB,本质上就是在提前给端侧 LLM 预留空间。

只要端侧 GenAI / LLM 生态真正跑通,终端设备出货是 billion 级别,“内存翻倍”几乎就是顺手一推的事。

你在 23–24 年时曾预期 2027 会是端侧 GenAI 的拐点,现在看软件生态明显滞后:

云端 ROI 更清晰、商业模式更 mature,厂商普遍更愿意先把资源砸在云端。端侧可能要等 7–10 年的长周期。

这也意味着:

中期(现在到 2030 左右),HBM 是最确定的一条“半导体长期高毛利”主线之一;

长期(2030 以后),端侧如果起飞,内存厂可能迎来第二轮量价齐升的机会。

NAND / SSD:KV cache 与向量数据库背后的隐形受益者

“内存红利”溢出的第二站,是 NAND / SSD。

你在原文里提到两条驱动力:

KV cache 的分层 / tiering:

模型推理时,如果显存和内存装不下全部 KV cache,就会溢出到下一层高速 SSD;

SSD 成为大模型推理中的“二级内存”,对带宽和 IO 的要求显著提高。

向量数据库的检索 / indexing:

RAG、embedding 检索等场景,需要大量高性能 SSD 来支撑索引与查询;

随着多模态和长时序数据的普及,这部分需求也在持续放大。

这也是为什么:

企业级 eSSD 合约价格在 2025 年 Q4 才开始明显抬头,而 NAND 现货价格一个月上涨 50% 以上;

存储厂在财报上开始越来越多地单独讲“AI inference use cases:KV cache tiering + vector database search/indexing”。

从投资角度看,这条线的特点是:

β 很高:AI 训练 / 推理只要继续增长,数据和索引都要落在存储上;

渗透面比 HBM 更广:不仅是 AI,还包括云存储、数据湖、备份和冷数据归档。

但和 HBM 不同的是,NAND 行业的“自律程度”一直是问号,扩产速度和价格纪律会决定 2028 以后还能不能维持现在的高景气。

Agentic AI:CPU 的“十年级回潮”

2025 年另一个被低估的变化,是 agentic AI 带来的 CPU 回潮。

从 CPU 的视角看 agentic workload:

routing、工具调用、网络请求、外部系统交互,绝大多数都落在 CPU 上;

对一些常见的 agent 框架(SWE-Agent / LangChain / Toolformer)做 profiling,会发现:

CPU 在端到端延迟中的占比可以高达 70–90%;

CPU 的能耗甚至可能超过总能耗的 40%。

这也是为什么:

Lisa Su 在财报上明确说,agentic AI 让很多客户意识到:“GPU 每生成一个 token,会触发多个 CPU 密集型任务”,因此在规划明显更大的 CPU 部署;

Nvidia 在 GB200/GB300 架构里提高了 CPU 占比,AMD 用多颗高核数 EPYC 去服务一大群 GPU——新的硬件形态本质上是在向 agent workload 优化。

这件事有两个重要含义:

AI 性能比较,会逐渐从“单 GPU token/s”,转向“系统级 agent throughput”。

CPU/GPU/NIC/存储的协同调度与 micro-batching,会越来越重要。

CPU 需求有可能迎来一个“十年级别”的温和回暖:

不再是 PC 升级周期驱动,而是 AI 工作负载结构变化驱动;

对 AMD EPYC 这种同时吃到 GPU + CPU 的选手,边际收益尤其明显;

Intel 如果能在执行力上稍微往上走,也有可能从这波趋势中捡到 beta。

云端 AI 挤压消费电子:PC 抑郁,苹果躺着赢

当 AI 云端疯狂抢占 HBM / DRAM / NAND 产能时,消费电子其实正在默默承担成本压力。

内存 / 存储价格持续上涨,PC 厂商已经开始讨论把标准配置从 16GB / 512GB 往回砍,回到 8GB / 256GB 的“祖传”组合;

安卓阵营终端厂商在美国等市场已经在陆续提价,或者在同价位上明显降配。

如果 DRAM 和 NAND 再这么涨下去,理论上真的可能出现一种非常魔幻的情况:

内存和存储的现货价格,比终端设备里的 CPU、甚至中低端 GPU 还贵。

这直接带来两个结果:

消费电子厂商的利润空间被挤压,AI PC、AI 手机的普及被推迟;

苹果成为这轮次生效应里的最大赢家之一。

为什么是苹果?

它在 DRAM / NAND 上有多年的长期锁价和专属产能;

自研 SoC + 强控制力的供应链,把 BOM 挤压到极致;

当安卓和 PC 厂都在为成本焦头烂额、讨论“回到 8GB 时代”的时候,苹果反而可以维持高配、高售价、高毛利,在高端市场持续抢份额。

从这个角度看,“云端 AI 吞噬内存和存储”,反而成了苹果扩大份额的助推器。

夸张一点说,PC 厂、安卓手机厂、甚至消费电子上游的员工,都适合买点内存和存储股来对冲自己的职业风险——这句你文末那个“职业 hedge”的玩笑话,其实很有现实感。

投资视角:从产业叙事到标的篮子

把上面这些故事揉在一起,其实已经隐含出一套比较清晰的投资框架。

“利润池迁移”的中枢

GPU + 互联:Nvidia(NVDA)、AMD(AMD)、Broadcom(AVGO)、Marvell(MRVL)

这里既是 AI 军备竞赛的主战场,也是估值最“拥挤”的地方,逻辑最强、泡沫也最厚。

“memory-bound” 带来的超额回报

HBM / DRAM:Micron(MU)、SK hynix、Samsung

逻辑最纯、周期感最弱的一条线,但也最需要关注 2028 年之后的扩产节奏。

AI 推理溢出的存储链

NAND / eSSD / HDD:Sandisk / Western Digital、Seagate 等

不是最显眼的主角,但会在 KV cache 和向量数据库这类场景中长期吃到红利。

光互联与 CPO

Coherent、Lumentum、Ciena + 一众 A 股光模块供应商

对应“百万英里级光纤”这条线,是 AI 超级集群之间的血管和神经。

Agentic AI 下的 CPU 回暖

AMD(EPYC)、Intel

这里更偏中长期“结构性修复”,不是几个月的 trading story,而是 5–10 年的 workload 重构。

消费电子里的相对赢家

Apple(AAPL)

在“云端 AI 挤压消费电子”的大叙事下,凭供应链和品牌吃到份额红利。

这套框架最大的价值,不在于“告诉你下一只十倍股是谁”,而是把 2025 这一轮 AI–半导体故事拉成一张地图:

谁在吞别人的利润,谁在接溢出的红利,谁被挤压,谁在逆势受益。

尾声:2025 只是合纵连横的第一回合

2025 年半导体的故事,有 Nvidia / AMD / TPU 与各家 hyperscaler 的明争暗斗,有 HBM 厂商从“周期股”一夜变“超高毛利收租股”,有 NAND 厂在 KV cache 和向量数据库的阴影里悄悄暴富,也有 CPU 在 agentic AI 浪潮下默默回潮。

更戏剧的是:

云端 AI 的繁荣在挤压 PC 和安卓手机的空间,而苹果则借供应链优势和定价权,悄悄坐收渔利。

这场算力军备竞赛的次生效应,极有可能在 2026 年以各种意想不到的方式重塑消费电子格局。

半导体的故事已经不再是一条线,而是一张不断自我重构的网。

从训练到推理,从文本到多模态,从单轮对话到复杂 agentic flow,每一次 AI 工作负载的演进,都是一次新的利润再分配。

而 2025,大概只是“合纵连横”的第一回合——真正的长剧才刚开场。

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法
1