火火兔爸
03-16 21:09
这篇文章不错,转发给大家看看
@khikho:
AI估值循环的断层与救赎
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
1
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":543297873507624,"tweetId":"543297873507624","gmtCreate":1773666583328,"gmtModify":1773666585700,"author":{"id":3546249304196282,"idStr":"3546249304196282","authorId":3546249304196282,"authorIdStr":"3546249304196282","name":"火火兔爸","avatar":"https://static.tigerbbs.com/1914631c23e50a7645217a36cc9d9598","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":9,"crmLevelSwitch":1,"individualDisplayBadges":[],"fanSize":454,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"title":"","html":"<html><head></head><body>这篇文章不错,转发给大家看看</body></html>","htmlText":"<html><head></head><body>这篇文章不错,转发给大家看看</body></html>","text":"这篇文章不错,转发给大家看看","highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/543297873507624","repostId":543123288576912,"repostType":1,"repost":{"magic":2,"id":543123288576912,"tweetId":"543123288576912","gmtCreate":1773624060482,"gmtModify":1773629132453,"author":{"id":4087214492167970,"idStr":"4087214492167970","authorId":4087214492167970,"authorIdStr":"4087214492167970","name":"khikho","avatar":"https://static.tigerbbs.com/8163a6179dabb8c65b60eb5467e5834a","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":12,"crmLevelSwitch":0,"individualDisplayBadges":[{"badgeId":"3f8f4b8c193b4343a88817ce07587dbd-1","templateUuid":"3f8f4b8c193b4343a88817ce07587dbd","name":"星级创作者","description":"累计发表精华帖>=3(或有料帖>=10),且30天内发表过至少一篇精华帖(或4篇有料帖)并参与过评论","bigImgUrl":"https://static.tigerbbs.com/1866dcf97a73be1c330f85862546aedc","smallImgUrl":"https://static.tigerbbs.com/4f5c5fa8e2c7683bb5a7fce8753ee456","redirectLinkEnabled":1,"redirectLink":"https://www.laohu8.com/activity/market/2023/star-contributors/","hasAllocated":1,"isWearing":0,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2026.03.18","individualDisplayEnabled":1,"backgroundColor":{"dark":"#675a37","tint":"#f9ebc2"},"fontColor":{"dark":"#ffffff","tint":"#ab7a0e"}}],"fanSize":3447,"starInvestorFlag":false},"themes":[],"images":[{"img":"https://static.tigerbbs.com/d92d59ac15a2fdbda99e9e9bb1db6ec4","width":"1042","height":"619"},{"img":"https://static.tigerbbs.com/8cf2725d3f09c0bc23f729abe510d5d1","width":"745","height":"622"},{"img":"https://static.tigerbbs.com/2581ce3ab8a9af14b13cd8794085dfda","width":"906","height":"633"}],"coverImages":[{"img":"https://static.tigerbbs.com/d92d59ac15a2fdbda99e9e9bb1db6ec4","width":"1042","height":"619"},{"img":"https://static.tigerbbs.com/8cf2725d3f09c0bc23f729abe510d5d1","width":"745","height":"622"},{"img":"https://static.tigerbbs.com/2581ce3ab8a9af14b13cd8794085dfda","width":"906","height":"633"}],"title":"AI估值循环的断层与救赎","html":"<html><head></head><body><p>2026年3月,硅谷知名风投Chamath Palihapitiya在其公司8090的All-In Podcast访谈中抛出了一个尖锐观点:\"找不到任何一家企业真正靠AI赚钱\"。这句话迅速在华尔街引发震荡,因为它戳破了当前AI繁荣表象下的核心困境.</p>\n<p>Chamath的批评并非空穴来风。他披露了自己公司,一家致力于重写传统软件的AI原生企业,的真实财务数据:自2025年11月以来,AI成本增长超过三倍,公司正朝着每年1000万美元的AI支出迈进。更惊人的是成本增速,\"成本每三个月增长3倍,但收入却没有同步增长\".</p>\n<p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d92d59ac15a2fdbda99e9e9bb1db6ec4\" tg-width=\"1042\" tg-height=\"619\"></p>\n<p>这种成本结构正在压垮企业端的AI应用。8090支付的AI账单包括:AWS的推理成本(\"极其巨大\")、Cursor的订阅费用、Anthropic的API调用。Chamath直言不讳地指出:\"感谢那些通过巨额投资为我们提供无限量token消费的VC们\",这句话揭示了当前AI生态的畸形现状, 许多AI应用的\"盈利\"实际上是建立在VC补贴之上的伪盈利.</p>\n<p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8cf2725d3f09c0bc23f729abe510d5d1\" tg-width=\"745\" tg-height=\"622\"></p>\n<p>Chamath特别点名了AI编程工具Cursor。他发现Cursor的token账单高得离谱,正计划将团队迁移至Anthropic的Claude Code。Chamath提出了一个广为流传的隐喻:\"LLM就像制冷技术本身,真正赚钱的是用它造可口可乐的公司\"。这个比喻精准地划分了AI产业链的价值分层:</p>\n<p>基础设施层(制冷技术)就像OpenAI、Anthropic等基础模型厂商,以及Nvidia等芯片供应商,对应\"卖水人\"角色;</p>\n<p>应用层(可口可乐)指的是那些真正利用AI创造可规模化的盈利商业模式的企业。</p>\n<p>Chamath的核心论点是:目前所有\"淘金者\"(应用层企业)都没有找到可持续的盈利模型。AI在企业端的部署呈现典型的负向单位经济学(Negative Unit Economics)特征:企业引入AI后,token成本持续攀升,但收入端并未产生相应增益,导致利润被侵蚀而非创造。</p>\n<p>这与OpenAI/Anthropic的高收入并不矛盾,那是\"卖水人\"在赚钱,而非\"淘金者\"成功。Chamath的警告实质是:AI产业链的下游需求可能是虚假的,当前繁荣主要由模型公司自身的训练需求(自产自销)和VC补贴支撑,而非来自企业端真实的、可持续的付费意愿。</p>\n<p>Chamath的观点呼应了华尔街日益增长的忧虑:支撑Nvidia、OpenAI、Anthropic高估值的需求循环,其底层可能是空的。从数据层面看,当前AI计算需求呈现明显的结构性失衡。Nvidia在Rubin平台发布时官方确认:\"AI训练与推理需求正在爆炸式增长\"。但细究之下,这种\"爆炸\"主要来自模型厂商自身:</p>\n<p>训练需求:OpenAI、Anthropic、Google、Meta等前沿实验室为训练下一代模型(如GPT-5、Claude 4)持续采购GPU。虽然增长迅速,但企业端的大规模部署仍局限于实验性项目,缺乏稳定的付费场景。这种\"自产自销\"模式形成了危险的闭环:模型公司烧钱买GPU→GPU厂商收入暴涨→模型公司估值上升→继续融资烧钱。一旦企业端应用无法接棒,这个循环将面临断裂风险。</p>\n<p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2581ce3ab8a9af14b13cd8794085dfda\" tg-width=\"906\" tg-height=\"633\"></p>\n<p>而Chamath的8090并非孤例。OpenCode创始人Dax Raad近期警告 \"CFO们开始意识到AI账单的成本'你是说每个工程师每月要多花2000美元的LLM费用?'\" Bain Capital Ventures的Amanda Huang指出,AI原生工具打破了SaaS的黄金法则:边际用户成本不再趋近于零。这种成本结构使得AI应用难以实现传统SaaS的规模化盈利。企业部署AI面临三重困境:</p>\n<p>1.Token成本不可控:使用量与成本线性挂钩,难以预测月度支出;</p>\n<p>2.效率增益难以货币化:AI提升的生产力往往体现在内部效率,难以转化为可定价的产品功能;</p>\n<p>3.模型依赖风险:底层模型提供商的定价权导致应用层利润空间被持续压缩。</p>\n<p>华尔街分析师开始质疑:如果企业端无法找到\"AI原生利润机器\"(AI-Native Profit Machines),当前AI基础设施的估值是否建立在沙滩之上。</p>\n<p>那么,Rubin的10倍降本能否填补断层?能不能成为救赎呢?</p>\n<p>面对估值循环的潜在断裂,Nvidia在2026年1月CES大会上发布的Rubin平台被视为最关键的破局变量。根据Nvidia官方新闻稿,Rubin平台通过\"极致协同设计\"(Extreme Codesign)整合六款新芯片,实现了革命性的成本突破。Nvidia公布的Rubin平台核心指标包括:</p>\n<p>1.推理成本降低10倍:相比Blackwell架构,token推理成本下降最高达10倍;</p>\n<p>2.训练效率提升4倍:训练MoE(混合专家)模型所需GPU数量减少至Blackwell的1/4;</p>\n<p>3.产品交付时间:Rubin-based产品将于2026年下半年(H2)开始交付。</p>\n<p>这些数字不是渐进式改良,而是代际跃迁。Nvidia官方明确将Rubin定位为\"AI工厂\"(AI Factory)的基础设施,旨在解决\"agentic AI\"(智能体AI)和MoE模型的规模化部署瓶颈。对于OpenAI、Anthropic等基础模型厂商,推理成本占其运营支出的核心部分。Rubin的10倍降本将直接提升API服务的毛利率;释放定价空间以应对开源模型竞争;改善烧钱速度,延长 runway 至商业化拐点。</p>\n<p>OpenAI CEO Sam Altman在Rubin发布时表示:\"智能随计算量扩展。当我们增加计算,模型变得更强大,解决更难的问题,为人们创造更大影响。Nvidia Rubin平台帮助我们持续扩展这一进程\"。Anthropic CEO Dario Amodei也指出:\"Rubin平台的效率提升代表了那种能够支持更长记忆、更好推理和更可靠输出的基础设施进步\"。</p>\n<p>更重要的是,Rubin可能改变企业端AI应用的经济学。当推理成本下降一个数量级,以下场景将变得经济可行:</p>\n<p>大规模Agentic AI部署:处理长视频、法律文档、医疗记录等需要巨大上下文窗口的复杂任务;</p>\n<p>AI自动化工具的普及:从编程助手(如Cursor、Claude Code)到客户服务、医疗诊断、金融分析的全流程自动化;</p>\n<p>新SaaS++形态:AI-first B2B应用可以按传统SaaS模式定价,而不再受困于线性增长的token成本。</p>\n<p>Aragon Research分析指出,Rubin的10倍token成本降低旨在使\"agentic AI\"在经济上可行,这对主流采用是\"必需品而非奢侈品\"。</p>\n<p>然而,Rubin并非万能药。如果企业端无法找到可盈利的AI应用场景,单纯的成本下降只是将\"无法盈利\"变为\"更便宜的无法盈利\"。关键变量不是成本,而是需求的真实性。当前AI应用面临的核心问题并非\"太贵\",而是\"无法创造可规模化的价值\"。具体表现为:</p>\n<p>价值捕获困难:AI提升的效率往往被客户视为\"应该免费的基础功能\",难以转化为付费意愿;</p>\n<p>竞争同质化:基于相同LLM的应用缺乏差异化,陷入价格战;</p>\n<p>组织适配成本:企业引入AI不仅是技术问题,更涉及流程重构、人员培训、合规审查,这些隐性成本往往被低估。</p>\n<p>Rubin的10倍降本可以消除技术经济门槛,但无法自动创造商业价值。如果2026年下半年Rubin交付后,企业端仍未出现杀手级应用(Killer Use Case),AI估值循环仍将面临严峻考验。</p>\n<p>基于上述分析,当前美股AI板块的投资逻辑需要重新校准。估值循环的当前状态,并非完全空心,但存在结构性断层。上游(芯片/模型)需求真实但存在\"自产自销\"风险,估值包含对未来企业端爆发的预期。中游(云/infra)受益于当前训练需求,但需观察企业端工作负载迁移速度。下游(应用)普遍面临单位经济学困境,Chamath的警告适用于绝大多数AI应用公司。</p>\n<p>而Nvidia Rubin是目前唯一能从成本结构上打破这一僵局的技术变量。10倍的token成本下降若能在2026年下半年顺利交付,将为企业端AI应用的盈利创造必要条件,但仅是必要条件,而非充分条件。最终的破局取决于 是否有\"AI让企业赚钱\"的杀手级应用出现? 这是比Rubin技术参数更难以预测,却更为关键的变量。</p>\n<p>朋友们觉得呢?<span class=\"teditor-emoji\">[鬼脸]</span></p>\n<p><span class=\"teditor-emoji\">[财迷]</span><a href=\"https://laohu8.com/S/TIGR?_gl=1*oxmofr*_gcl_au*OTIyNzM5NDQ2LjE3NTc5MzMyMDU.\">$老虎证券(TIGR)$</a> <span class=\"teditor-emoji\">[财迷]</span></p>\n<p style=\"text-align: left;\"><a href=\"https://laohu8.com/U/36984908995200\">@小虎活动</a> <a href=\"https://laohu8.com/U/3514329116425907\">@小虎AV</a> <a href=\"https://laohu8.com/U/20722186463466?_gl=1*pdre2v*_gcl_au*ODc0OTY0OTQ1LjE3NDYwMTY0NjU.\">@爱发红包的虎妞</a> <a href=\"https://laohu8.com/U/740450932848\">@33_Tiger</a> <a href=\"https://laohu8.com/U/4093504281887960\">@芝士虎</a> <a href=\"https://laohu8.com/U/4106547232749330\">@Tiger_SG</a> <a href=\"https://laohu8.com/U/3502767768442965\">@话题虎</a></p>\n<p></p>\n<p></p>\n<p></p>\n<p></p>\n<p></p>\n<p></p></body></html>","htmlText":"<html><head></head><body><p>2026年3月,硅谷知名风投Chamath Palihapitiya在其公司8090的All-In Podcast访谈中抛出了一个尖锐观点:\"找不到任何一家企业真正靠AI赚钱\"。这句话迅速在华尔街引发震荡,因为它戳破了当前AI繁荣表象下的核心困境.</p>\n<p>Chamath的批评并非空穴来风。他披露了自己公司,一家致力于重写传统软件的AI原生企业,的真实财务数据:自2025年11月以来,AI成本增长超过三倍,公司正朝着每年1000万美元的AI支出迈进。更惊人的是成本增速,\"成本每三个月增长3倍,但收入却没有同步增长\".</p>\n<p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d92d59ac15a2fdbda99e9e9bb1db6ec4\" tg-width=\"1042\" tg-height=\"619\"></p>\n<p>这种成本结构正在压垮企业端的AI应用。8090支付的AI账单包括:AWS的推理成本(\"极其巨大\")、Cursor的订阅费用、Anthropic的API调用。Chamath直言不讳地指出:\"感谢那些通过巨额投资为我们提供无限量token消费的VC们\",这句话揭示了当前AI生态的畸形现状, 许多AI应用的\"盈利\"实际上是建立在VC补贴之上的伪盈利.</p>\n<p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/8cf2725d3f09c0bc23f729abe510d5d1\" tg-width=\"745\" tg-height=\"622\"></p>\n<p>Chamath特别点名了AI编程工具Cursor。他发现Cursor的token账单高得离谱,正计划将团队迁移至Anthropic的Claude Code。Chamath提出了一个广为流传的隐喻:\"LLM就像制冷技术本身,真正赚钱的是用它造可口可乐的公司\"。这个比喻精准地划分了AI产业链的价值分层:</p>\n<p>基础设施层(制冷技术)就像OpenAI、Anthropic等基础模型厂商,以及Nvidia等芯片供应商,对应\"卖水人\"角色;</p>\n<p>应用层(可口可乐)指的是那些真正利用AI创造可规模化的盈利商业模式的企业。</p>\n<p>Chamath的核心论点是:目前所有\"淘金者\"(应用层企业)都没有找到可持续的盈利模型。AI在企业端的部署呈现典型的负向单位经济学(Negative Unit Economics)特征:企业引入AI后,token成本持续攀升,但收入端并未产生相应增益,导致利润被侵蚀而非创造。</p>\n<p>这与OpenAI/Anthropic的高收入并不矛盾,那是\"卖水人\"在赚钱,而非\"淘金者\"成功。Chamath的警告实质是:AI产业链的下游需求可能是虚假的,当前繁荣主要由模型公司自身的训练需求(自产自销)和VC补贴支撑,而非来自企业端真实的、可持续的付费意愿。</p>\n<p>Chamath的观点呼应了华尔街日益增长的忧虑:支撑Nvidia、OpenAI、Anthropic高估值的需求循环,其底层可能是空的。从数据层面看,当前AI计算需求呈现明显的结构性失衡。Nvidia在Rubin平台发布时官方确认:\"AI训练与推理需求正在爆炸式增长\"。但细究之下,这种\"爆炸\"主要来自模型厂商自身:</p>\n<p>训练需求:OpenAI、Anthropic、Google、Meta等前沿实验室为训练下一代模型(如GPT-5、Claude 4)持续采购GPU。虽然增长迅速,但企业端的大规模部署仍局限于实验性项目,缺乏稳定的付费场景。这种\"自产自销\"模式形成了危险的闭环:模型公司烧钱买GPU→GPU厂商收入暴涨→模型公司估值上升→继续融资烧钱。一旦企业端应用无法接棒,这个循环将面临断裂风险。</p>\n<p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2581ce3ab8a9af14b13cd8794085dfda\" tg-width=\"906\" tg-height=\"633\"></p>\n<p>而Chamath的8090并非孤例。OpenCode创始人Dax Raad近期警告 \"CFO们开始意识到AI账单的成本'你是说每个工程师每月要多花2000美元的LLM费用?'\" Bain Capital Ventures的Amanda Huang指出,AI原生工具打破了SaaS的黄金法则:边际用户成本不再趋近于零。这种成本结构使得AI应用难以实现传统SaaS的规模化盈利。企业部署AI面临三重困境:</p>\n<p>1.Token成本不可控:使用量与成本线性挂钩,难以预测月度支出;</p>\n<p>2.效率增益难以货币化:AI提升的生产力往往体现在内部效率,难以转化为可定价的产品功能;</p>\n<p>3.模型依赖风险:底层模型提供商的定价权导致应用层利润空间被持续压缩。</p>\n<p>华尔街分析师开始质疑:如果企业端无法找到\"AI原生利润机器\"(AI-Native Profit Machines),当前AI基础设施的估值是否建立在沙滩之上。</p>\n<p>那么,Rubin的10倍降本能否填补断层?能不能成为救赎呢?</p>\n<p>面对估值循环的潜在断裂,Nvidia在2026年1月CES大会上发布的Rubin平台被视为最关键的破局变量。根据Nvidia官方新闻稿,Rubin平台通过\"极致协同设计\"(Extreme Codesign)整合六款新芯片,实现了革命性的成本突破。Nvidia公布的Rubin平台核心指标包括:</p>\n<p>1.推理成本降低10倍:相比Blackwell架构,token推理成本下降最高达10倍;</p>\n<p>2.训练效率提升4倍:训练MoE(混合专家)模型所需GPU数量减少至Blackwell的1/4;</p>\n<p>3.产品交付时间:Rubin-based产品将于2026年下半年(H2)开始交付。</p>\n<p>这些数字不是渐进式改良,而是代际跃迁。Nvidia官方明确将Rubin定位为\"AI工厂\"(AI Factory)的基础设施,旨在解决\"agentic AI\"(智能体AI)和MoE模型的规模化部署瓶颈。对于OpenAI、Anthropic等基础模型厂商,推理成本占其运营支出的核心部分。Rubin的10倍降本将直接提升API服务的毛利率;释放定价空间以应对开源模型竞争;改善烧钱速度,延长 runway 至商业化拐点。</p>\n<p>OpenAI CEO Sam Altman在Rubin发布时表示:\"智能随计算量扩展。当我们增加计算,模型变得更强大,解决更难的问题,为人们创造更大影响。Nvidia Rubin平台帮助我们持续扩展这一进程\"。Anthropic CEO Dario Amodei也指出:\"Rubin平台的效率提升代表了那种能够支持更长记忆、更好推理和更可靠输出的基础设施进步\"。</p>\n<p>更重要的是,Rubin可能改变企业端AI应用的经济学。当推理成本下降一个数量级,以下场景将变得经济可行:</p>\n<p>大规模Agentic AI部署:处理长视频、法律文档、医疗记录等需要巨大上下文窗口的复杂任务;</p>\n<p>AI自动化工具的普及:从编程助手(如Cursor、Claude Code)到客户服务、医疗诊断、金融分析的全流程自动化;</p>\n<p>新SaaS++形态:AI-first B2B应用可以按传统SaaS模式定价,而不再受困于线性增长的token成本。</p>\n<p>Aragon Research分析指出,Rubin的10倍token成本降低旨在使\"agentic AI\"在经济上可行,这对主流采用是\"必需品而非奢侈品\"。</p>\n<p>然而,Rubin并非万能药。如果企业端无法找到可盈利的AI应用场景,单纯的成本下降只是将\"无法盈利\"变为\"更便宜的无法盈利\"。关键变量不是成本,而是需求的真实性。当前AI应用面临的核心问题并非\"太贵\",而是\"无法创造可规模化的价值\"。具体表现为:</p>\n<p>价值捕获困难:AI提升的效率往往被客户视为\"应该免费的基础功能\",难以转化为付费意愿;</p>\n<p>竞争同质化:基于相同LLM的应用缺乏差异化,陷入价格战;</p>\n<p>组织适配成本:企业引入AI不仅是技术问题,更涉及流程重构、人员培训、合规审查,这些隐性成本往往被低估。</p>\n<p>Rubin的10倍降本可以消除技术经济门槛,但无法自动创造商业价值。如果2026年下半年Rubin交付后,企业端仍未出现杀手级应用(Killer Use Case),AI估值循环仍将面临严峻考验。</p>\n<p>基于上述分析,当前美股AI板块的投资逻辑需要重新校准。估值循环的当前状态,并非完全空心,但存在结构性断层。上游(芯片/模型)需求真实但存在\"自产自销\"风险,估值包含对未来企业端爆发的预期。中游(云/infra)受益于当前训练需求,但需观察企业端工作负载迁移速度。下游(应用)普遍面临单位经济学困境,Chamath的警告适用于绝大多数AI应用公司。</p>\n<p>而Nvidia Rubin是目前唯一能从成本结构上打破这一僵局的技术变量。10倍的token成本下降若能在2026年下半年顺利交付,将为企业端AI应用的盈利创造必要条件,但仅是必要条件,而非充分条件。最终的破局取决于 是否有\"AI让企业赚钱\"的杀手级应用出现? 这是比Rubin技术参数更难以预测,却更为关键的变量。</p>\n<p>朋友们觉得呢?<span class=\"teditor-emoji\">[鬼脸]</span></p>\n<p><span class=\"teditor-emoji\">[财迷]</span><a href=\"https://laohu8.com/S/TIGR?_gl=1*oxmofr*_gcl_au*OTIyNzM5NDQ2LjE3NTc5MzMyMDU.\">$老虎证券(TIGR)$</a> <span class=\"teditor-emoji\">[财迷]</span></p>\n<p style=\"text-align: left;\"><a href=\"https://laohu8.com/U/36984908995200\">@小虎活动</a> <a href=\"https://laohu8.com/U/3514329116425907\">@小虎AV</a> <a href=\"https://laohu8.com/U/20722186463466?_gl=1*pdre2v*_gcl_au*ODc0OTY0OTQ1LjE3NDYwMTY0NjU.\">@爱发红包的虎妞</a> <a href=\"https://laohu8.com/U/740450932848\">@33_Tiger</a> <a href=\"https://laohu8.com/U/4093504281887960\">@芝士虎</a> <a href=\"https://laohu8.com/U/4106547232749330\">@Tiger_SG</a> <a href=\"https://laohu8.com/U/3502767768442965\">@话题虎</a></p>\n<p></p>\n<p></p>\n<p></p>\n<p></p>\n<p></p>\n<p></p></body></html>","text":"2026年3月,硅谷知名风投Chamath Palihapitiya在其公司8090的All-In Podcast访谈中抛出了一个尖锐观点:\"找不到任何一家企业真正靠AI赚钱\"。这句话迅速在华尔街引发震荡,因为它戳破了当前AI繁荣表象下的核心困境. Chamath的批评并非空穴来风。他披露了自己公司,一家致力于重写传统软件的AI原生企业,的真实财务数据:自2025年11月以来,AI成本增长超过三倍,公司正朝着每年1000万美元的AI支出迈进。更惊人的是成本增速,\"成本每三个月增长3倍,但收入却没有同步增长\". 这种成本结构正在压垮企业端的AI应用。8090支付的AI账单包括:AWS的推理成本(\"极其巨大\")、Cursor的订阅费用、Anthropic的API调用。Chamath直言不讳地指出:\"感谢那些通过巨额投资为我们提供无限量token消费的VC们\",这句话揭示了当前AI生态的畸形现状, 许多AI应用的\"盈利\"实际上是建立在VC补贴之上的伪盈利. Chamath特别点名了AI编程工具Cursor。他发现Cursor的token账单高得离谱,正计划将团队迁移至Anthropic的Claude Code。Chamath提出了一个广为流传的隐喻:\"LLM就像制冷技术本身,真正赚钱的是用它造可口可乐的公司\"。这个比喻精准地划分了AI产业链的价值分层: 基础设施层(制冷技术)就像OpenAI、Anthropic等基础模型厂商,以及Nvidia等芯片供应商,对应\"卖水人\"角色; 应用层(可口可乐)指的是那些真正利用AI创造可规模化的盈利商业模式的企业。 Chamath的核心论点是:目前所有\"淘金者\"(应用层企业)都没有找到可持续的盈利模型。AI在企业端的部署呈现典型的负向单位经济学(Negative Unit Economics)特征:企业引入AI后,token成本持续攀升,但收入端并未产生相应增益,导致利润被侵蚀而非创造。 这与OpenAI/Anthropic的高收入并不矛盾,那是\"卖水人\"在赚钱,而非\"淘金者\"成功。Chamath的警告实质是:AI产业链的下游需求可能是虚假的,当前繁荣主要由模型公司自身的训练需求(自产自销)和VC补贴支撑,而非来自企业端真实的、可持续的付费意愿。 Chamath的观点呼应了华尔街日益增长的忧虑:支撑Nvidia、OpenAI、Anthropic高估值的需求循环,其底层可能是空的。从数据层面看,当前AI计算需求呈现明显的结构性失衡。Nvidia在Rubin平台发布时官方确认:\"AI训练与推理需求正在爆炸式增长\"。但细究之下,这种\"爆炸\"主要来自模型厂商自身: 训练需求:OpenAI、Anthropic、Google、Meta等前沿实验室为训练下一代模型(如GPT-5、Claude 4)持续采购GPU。虽然增长迅速,但企业端的大规模部署仍局限于实验性项目,缺乏稳定的付费场景。这种\"自产自销\"模式形成了危险的闭环:模型公司烧钱买GPU→GPU厂商收入暴涨→模型公司估值上升→继续融资烧钱。一旦企业端应用无法接棒,这个循环将面临断裂风险。 而Chamath的8090并非孤例。OpenCode创始人Dax Raad近期警告 \"CFO们开始意识到AI账单的成本'你是说每个工程师每月要多花2000美元的LLM费用?'\" Bain Capital Ventures的Amanda Huang指出,AI原生工具打破了SaaS的黄金法则:边际用户成本不再趋近于零。这种成本结构使得AI应用难以实现传统SaaS的规模化盈利。企业部署AI面临三重困境: 1.Token成本不可控:使用量与成本线性挂钩,难以预测月度支出; 2.效率增益难以货币化:AI提升的生产力往往体现在内部效率,难以转化为可定价的产品功能; 3.模型依赖风险:底层模型提供商的定价权导致应用层利润空间被持续压缩。 华尔街分析师开始质疑:如果企业端无法找到\"AI原生利润机器\"(AI-Native Profit Machines),当前AI基础设施的估值是否建立在沙滩之上。 那么,Rubin的10倍降本能否填补断层?能不能成为救赎呢? 面对估值循环的潜在断裂,Nvidia在2026年1月CES大会上发布的Rubin平台被视为最关键的破局变量。根据Nvidia官方新闻稿,Rubin平台通过\"极致协同设计\"(Extreme Codesign)整合六款新芯片,实现了革命性的成本突破。Nvidia公布的Rubin平台核心指标包括: 1.推理成本降低10倍:相比Blackwell架构,token推理成本下降最高达10倍; 2.训练效率提升4倍:训练MoE(混合专家)模型所需GPU数量减少至Blackwell的1/4; 3.产品交付时间:Rubin-based产品将于2026年下半年(H2)开始交付。 这些数字不是渐进式改良,而是代际跃迁。Nvidia官方明确将Rubin定位为\"AI工厂\"(AI Factory)的基础设施,旨在解决\"agentic AI\"(智能体AI)和MoE模型的规模化部署瓶颈。对于OpenAI、Anthropic等基础模型厂商,推理成本占其运营支出的核心部分。Rubin的10倍降本将直接提升API服务的毛利率;释放定价空间以应对开源模型竞争;改善烧钱速度,延长 runway 至商业化拐点。 OpenAI CEO Sam Altman在Rubin发布时表示:\"智能随计算量扩展。当我们增加计算,模型变得更强大,解决更难的问题,为人们创造更大影响。Nvidia Rubin平台帮助我们持续扩展这一进程\"。Anthropic CEO Dario Amodei也指出:\"Rubin平台的效率提升代表了那种能够支持更长记忆、更好推理和更可靠输出的基础设施进步\"。 更重要的是,Rubin可能改变企业端AI应用的经济学。当推理成本下降一个数量级,以下场景将变得经济可行: 大规模Agentic AI部署:处理长视频、法律文档、医疗记录等需要巨大上下文窗口的复杂任务; AI自动化工具的普及:从编程助手(如Cursor、Claude Code)到客户服务、医疗诊断、金融分析的全流程自动化; 新SaaS++形态:AI-first B2B应用可以按传统SaaS模式定价,而不再受困于线性增长的token成本。 Aragon Research分析指出,Rubin的10倍token成本降低旨在使\"agentic AI\"在经济上可行,这对主流采用是\"必需品而非奢侈品\"。 然而,Rubin并非万能药。如果企业端无法找到可盈利的AI应用场景,单纯的成本下降只是将\"无法盈利\"变为\"更便宜的无法盈利\"。关键变量不是成本,而是需求的真实性。当前AI应用面临的核心问题并非\"太贵\",而是\"无法创造可规模化的价值\"。具体表现为: 价值捕获困难:AI提升的效率往往被客户视为\"应该免费的基础功能\",难以转化为付费意愿; 竞争同质化:基于相同LLM的应用缺乏差异化,陷入价格战; 组织适配成本:企业引入AI不仅是技术问题,更涉及流程重构、人员培训、合规审查,这些隐性成本往往被低估。 Rubin的10倍降本可以消除技术经济门槛,但无法自动创造商业价值。如果2026年下半年Rubin交付后,企业端仍未出现杀手级应用(Killer Use Case),AI估值循环仍将面临严峻考验。 基于上述分析,当前美股AI板块的投资逻辑需要重新校准。估值循环的当前状态,并非完全空心,但存在结构性断层。上游(芯片/模型)需求真实但存在\"自产自销\"风险,估值包含对未来企业端爆发的预期。中游(云/infra)受益于当前训练需求,但需观察企业端工作负载迁移速度。下游(应用)普遍面临单位经济学困境,Chamath的警告适用于绝大多数AI应用公司。 而Nvidia Rubin是目前唯一能从成本结构上打破这一僵局的技术变量。10倍的token成本下降若能在2026年下半年顺利交付,将为企业端AI应用的盈利创造必要条件,但仅是必要条件,而非充分条件。最终的破局取决于 是否有\"AI让企业赚钱\"的杀手级应用出现? 这是比Rubin技术参数更难以预测,却更为关键的变量。 朋友们觉得呢?[鬼脸] [财迷]$老虎证券(TIGR)$ [财迷] @小虎活动 @小虎AV @爱发红包的虎妞 @33_Tiger @芝士虎 @Tiger_SG @话题虎","highlighted":1,"essential":2,"paper":2,"link":"https://laohu8.com/post/543123288576912","repostId":0,"isVote":1,"tweetType":1,"commentLimit":10,"symbols":["TIGR?_gl=1*oxmofr*_gcl_au*OTIyNzM5NDQ2LjE3NTc5MzMyMDU."],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":5527,"optionInvolvedFlag":false,"xxTargetLangEnum":"ZH_CN"},"isVote":1,"tweetType":1,"viewCount":20,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":27,"optionInvolvedFlag":false,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/543297873507624"}
精彩评论