AI 算力正在换挡:从“拼训练”走向“拼推理”
最近英伟达的一个动向,其实透露出 AI 产业正在发生重要转变。过去两年,算力竞争的核心是“谁能训练更大的模型”,GPU 堆得越多越好。但现在,模型能力阶段性够用了,真正的瓶颈变成了推理效率——一次回答要多快、一次调用要多贵、能不能长期稳定运行。
英伟达开始在传统 GPU 之外,引入来自 Groq 的 LPU(语言处理单元)思路,核心目标是降低延迟和能耗。这本身说明,GPU 并非所有 AI 场景的最优解。
更值得注意的是 OpenAI 的选择。其大规模采购“专用推理产能”,意味着未来 AI 成本压力主要来自推理而非训练。AI 商业化的关键,不在模型更大,而在用得起、跑得久。
算力正从“单一通用平台”,走向“按场景切分”的基础设施时代。
教主观点:
接下来 AI 投资的分水岭,不是“谁算力最强”,而是“谁把单位推理成本降下来”。效率,正在取代规模,成为新的定价锚。
$英伟达(NVDA)$ $特斯拉(TSLA)$ $苹果(AAPL)$
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
1
举报
登录后可参与评论

暂无评论

