AI 算力正在换挡:从“拼训练”走向“拼推理”

最近英伟达的一个动向,其实透露出 AI 产业正在发生重要转变。过去两年,算力竞争的核心是“谁能训练更大的模型”,GPU 堆得越多越好。但现在,模型能力阶段性够用了,真正的瓶颈变成了推理效率——一次回答要多快、一次调用要多贵、能不能长期稳定运行。

英伟达开始在传统 GPU 之外,引入来自 Gr­oq 的 LPU(语言处理单元)思路,核心目标是降低延迟和能耗。这本身说明,GPU 并非所有 AI 场景的最优解。

更值得注意的是 Op­e­n­AI 的选择。其大规模采购“专用推理产能”,意味着未来 AI 成本压力主要来自推理而非训练。AI 商业化的关键,不在模型更大,而在用得起、跑得久。

算力正从“单一通用平台”,走向“按场景切分”的基础设施时代。

教主观点:

接下来 AI 投资的分水岭,不是“谁算力最强”,而是“谁把单位推理成本降下来”。效率,正在取代规模,成为新的定价锚。

$英伟达(NV­DA)$ $特斯拉(TS­LA)$ $苹果(AA­PL)$

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论

  • 推荐
  • 最新
empty
暂无评论