$美国超微公司(AMD)$ AI的“上半场”与“下半场”
上半场:模型训练的“百米冲刺”。
这个阶段,核心目标是不惜一切代价提升模型性能,Scaling Law(规模法则)是唯一信仰。
谁的GPU性能最强、生态最好,谁就是王。英伟达凭借其H系列/B系列GPU和CUDA生态,赢得了这场军备竞赛的绝对胜利。
下半场:应用推理的“马拉松”。
当AI应用(如ChatGPT、Midjourney)从百万用户走向十亿用户,成本控制就从次要矛盾上升为主要矛盾。
每一次用户提问、每一次图片生成,背后都是实打实的推理算力消耗。此时,性价比成了决定生死存亡的关键。
巨头们开始大规模采购AMD芯片,本质上不是为了替换“训练之王”英伟达,而是在为成本敏感的“推理时代”提前布局。
巨头的“B计划”:性能狂热到成本焦虑
当产业从0到1的探索期,进入从1到N的普及期,商业逻辑必然生变。
过去,大家问的是:“你的模型能比别人强多少?”未来,大家会问:“你的服务成本能比别人低多少?”
在模型训练上,英伟达的H100/B200依然是无可替代的“屠龙刀”。但对于海量的、日常的推理任务,使用这样的“屠龙刀”还有优势吗?
巨头们不是傻子,他们深知不能永远为英伟达的“GPU税”支付高昂溢价。所以,每一份投向AMD的订单,实际上就是投向自己未来财报的“成本优化”票。
精彩评论