+关注
JQCapital
善战者无赫赫之功,善盈者无惊天之利。
IP属地:吉林
76
关注
3
粉丝
0
主题
0
勋章
主贴
热门
JQCapital
12-01
那为啥谷歌会跟着跌
OpenAI大溃败!GPT-5“换皮”GPT-4o,两年半预训练0突破
JQCapital
11-21
跌也不是一下子跌完,慢慢磨,期权价值就磨完了
英伟达财报后走势“诡异”,6100亿美元“AI庞氏骗局”崩盘?
JQCapital
07-09
$NVDA 20250711 165.0 CALL$
盈利靠信仰
JQCapital
2024-10-12
逢低买入,牛市见顶还早呢!
JQCapital
2018-09-18
$Tilray Inc.(TLRY)$ 这是今年最妖的股了
JQCapital
2018-09-13
$Facebook(FB)$ 小扎你能不能好好的?
JQCapital
2018-09-13
$Facebook(FB)$ 所有股票都涨,就你在跌!!
去老虎APP查看更多动态
{"i18n":{"language":"zh_CN"},"userPageInfo":{"id":"3460684730001752","uuid":"3460684730001752","gmtCreate":1497590709509,"gmtModify":1741240093227,"name":"JQCapital","pinyin":"jqcapital","introduction":"","introductionEn":null,"signature":"善战者无赫赫之功,善盈者无惊天之利。","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","hat":null,"hatId":null,"hatName":null,"vip":1,"status":2,"fanSize":3,"headSize":76,"tweetSize":7,"questionSize":0,"limitLevel":900,"accountStatus":4,"level":{"id":3,"name":"书生虎","nameTw":"書生虎","represent":"努力向上","factor":"发布10条非转发主帖,其中5条获得他人回复或点赞","iconColor":"3C9E83","bgColor":"A2F1D9"},"themeCounts":0,"badgeCounts":0,"badges":[],"moderator":false,"superModerator":false,"manageSymbols":null,"badgeLevel":null,"boolIsFan":false,"boolIsHead":false,"favoriteSize":0,"symbols":null,"coverImage":null,"realNameVerified":null,"userBadges":[{"badgeId":"228c86a078844d74991fff2b7ab2428d-2","templateUuid":"228c86a078844d74991fff2b7ab2428d","name":"投资总监虎","description":"证券账户累计交易金额达到30万美元","bigImgUrl":"https://static.tigerbbs.com/9d20b23f1b6335407f882bc5c2ad12c0","smallImgUrl":"https://static.tigerbbs.com/ada3b4533518ace8404a3f6dd192bd29","grayImgUrl":"https://static.tigerbbs.com/177f283ba21d1c077054dac07f88f3bd","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2025.08.21","exceedPercentage":"80.83%","individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1101},{"badgeId":"35ec162348d5460f88c959321e554969-3","templateUuid":"35ec162348d5460f88c959321e554969","name":"传说交易员","description":"证券或期货账户累计交易次数达到300次","bigImgUrl":"https://static.tigerbbs.com/656db16598a0b8f21429e10d6c1cb033","smallImgUrl":"https://static.tigerbbs.com/03f10910d4dd9234f9b5702a3342193a","grayImgUrl":"https://static.tigerbbs.com/0c767e35268feb729d50d3fa9a386c5a","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":1,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2025.07.30","exceedPercentage":"93.41%","individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100},{"badgeId":"e50ce593bb40487ebfb542ca54f6a561-4","templateUuid":"e50ce593bb40487ebfb542ca54f6a561","name":"明星虎友","description":"加入老虎社区2000天","bigImgUrl":"https://static.tigerbbs.com/dddf24b906c7011de2617d4fb3f76987","smallImgUrl":"https://static.tigerbbs.com/53d58ad32c97254c6f74db8b97e6ec49","grayImgUrl":"https://static.tigerbbs.com/6304700d92ad91c7a33e2e92ec32ecc1","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2022.12.12","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1001},{"badgeId":"976c19eed35f4cd78f17501c2e99ef37-1","templateUuid":"976c19eed35f4cd78f17501c2e99ef37","name":"博闻投资者","description":"累计交易超过10只正股","bigImgUrl":"https://static.tigerbbs.com/e74cc24115c4fbae6154ec1b1041bf47","smallImgUrl":"https://static.tigerbbs.com/d48265cbfd97c57f9048db29f22227b0","grayImgUrl":"https://static.tigerbbs.com/76c6d6898b073c77e1c537ebe9ac1c57","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1102},{"badgeId":"518b5610c3e8410da5cfad115e4b0f5a-1","templateUuid":"518b5610c3e8410da5cfad115e4b0f5a","name":"实盘交易者","description":"完成一笔实盘交易","bigImgUrl":"https://static.tigerbbs.com/2e08a1cc2087a1de93402c2c290fa65b","smallImgUrl":"https://static.tigerbbs.com/4504a6397ce1137932d56e5f4ce27166","grayImgUrl":"https://static.tigerbbs.com/4b22c79415b4cd6e3d8ebc4a0fa32604","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100}],"userBadgeCount":5,"currentWearingBadge":{"badgeId":"35ec162348d5460f88c959321e554969-3","templateUuid":"35ec162348d5460f88c959321e554969","name":"传说交易员","description":"证券或期货账户累计交易次数达到300次","bigImgUrl":"https://static.tigerbbs.com/656db16598a0b8f21429e10d6c1cb033","smallImgUrl":"https://static.tigerbbs.com/03f10910d4dd9234f9b5702a3342193a","grayImgUrl":"https://static.tigerbbs.com/0c767e35268feb729d50d3fa9a386c5a","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":1,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2025.07.30","exceedPercentage":"93.24%","individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100},"individualDisplayBadges":null,"crmLevel":7,"crmLevelSwitch":1,"location":"吉林","starInvestorFollowerNum":0,"starInvestorFlag":false,"starInvestorOrderShareNum":0,"subscribeStarInvestorNum":31,"ror":null,"winRationPercentage":null,"showRor":false,"investmentPhilosophy":null,"starInvestorSubscribeFlag":false},"baikeInfo":{},"tab":"post","tweets":[{"id":505997827269448,"gmtCreate":1764558804519,"gmtModify":1764558807035,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3460684730001752","authorIdStr":"3460684730001752"},"themes":[],"title":"","htmlText":"那为啥谷歌会跟着跌","listText":"那为啥谷歌会跟着跌","text":"那为啥谷歌会跟着跌","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/505997827269448","repostId":"2587795167","repostType":2,"repost":{"id":"2587795167","kind":"news","pubTimestamp":1764485625,"share":"https://www.laohu8.com/m/news/2587795167?lang=&edition=full","pubTime":"2025-11-30 14:53","market":"us","language":"zh","title":"OpenAI大溃败!GPT-5“换皮”GPT-4o,两年半预训练0突破","url":"https://stock-news.laohu8.com/highlight/detail?id=2587795167","media":"新智元","summary":"OpenAI核心预训练,接连翻车?传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被OpenAI放弃了!在前沿模型预训练上,OpenAI的研发似乎陷入了僵局——如今第五代旗舰模型GPT-5,包括最新GPT-5.1,其“技术根基”本质或仍未突破GPT-4o的范畴。然而,OpenAI的Orion大规模预训练,却打破了这一常规,其训练时间超过了3个月。但至于GPT-5真正基于哪一款GPT打造,还有待证实。OpenAI主动放弃了这一范式,为劲敌让出了一条速通道。","content":"<html><head></head><body><blockquote><p>OpenAI被曝陷入严重技术停滞——其最新发布的GPT-5实质仍是基于GPT-4o架构的优化版本,自2022年GPT-4发布后长达两年半期间未能实现预训练技术的实质性突破。与此同时,谷歌凭借TPUv7在预训练领域突飞猛进,迫使OpenAI紧急启动新模型研发计划以应对技术落后危机。</p></blockquote><p>OpenAI核心预训练,接连翻车?</p><p>传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被OpenAI放弃了!</p><p>这么说并非空穴来风,核心爆料恰恰来自权威SemiAnalysis的最新一文——</p><p>OpenAI顶尖团队自GPT-4o发布之后,迄今尚未完成一次完整的,为下一代前沿模型设计的大规模预训练。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/17b01384fdead3e442ce6446294fcca2\" title=\"\" tg-width=\"1024\" tg-height=\"1317\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/48a85ba896dc71539eae0ffe7640c8fd\" title=\"\" tg-width=\"1024\" tg-height=\"163\"/></p><p>文章中,高级分析师强调:<a href=\"https://laohu8.com/S/GOOG\">谷歌</a>正手持TPUv7这把利剑,向<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>王座发起冲锋,或将终结CUDA护城河。</p><p>众所周知,OpenAI全栈模型是在纯英伟达GPU上炼出的。</p><p>然而,圈内人的焦点,大都放在了大模型“推理”和“后训练”的硬件之上。</p><p>殊不知,没有前沿模型的预训练,一切皆是“无米之炊”。恰恰这一环节,成为了AI硬件里最难、最耗资源的一关。</p><p>如今,一个不为人知的内幕爆出了:</p><p>事实证明,<a href=\"https://laohu8.com/S/GOOGL\">谷歌</a>TPU彻底经受住了这一考验;</p><p>相较之下,自2024年5月GPT-4o诞生之后,OpenAI的预训练却毫无进展.....</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/96925999a2f079cdc34c93805d99a3ec\" title=\"\" tg-width=\"1024\" tg-height=\"284\"/></p><p>过去,两年半的时间,OpenAI没有真正Scaling预训练的规模。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/02adb07ec4500dfb06d8f57e9a419fc0\" title=\"\" tg-width=\"1024\" tg-height=\"682\"/></p><p>GPT的预训练,或许在GPT-4o之后触及了天花板,由此也解释了GPT-5性能未达业界预期的关键原因。</p><p>有网友表示,那不正是Ilya离开的时候吗.....</p><p>恰在昨天,Ilya最新发文称,Scaling不会停,但某个重要的东西仍然会缺失。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7332362c7b866ea1b461ba37aa58e2b9\" title=\"\" tg-width=\"1024\" tg-height=\"153\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4a4cc533e69b244512a4aa8458b68b1b\" title=\"\" tg-width=\"1024\" tg-height=\"420\"/></p><p><strong>OpenAI预训练,大溃败</strong></p><p>还记得去年底,那场铺天盖地的“Orion”传闻吗?</p><p>这一秘密项目,原定以GPT-5面世,但因训练未达预期,最终被降级为GPT-4.5发布。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0a7e9650c9b0c237429ef77db04b2410\" title=\"\" tg-width=\"1024\" tg-height=\"350\"/></p><p>在前沿模型预训练上,OpenAI的研发似乎陷入了僵局——</p><p>如今第五代旗舰模型GPT-5,包括最新GPT-5.1,其“技术根基”本质或仍未突破GPT-4o的范畴。</p><p>SemiAnalysis去年底一篇文章,曾对外公开了Orion训练的困境。</p><p>当前,算法的进步使得模型每年所需的物理计算量减少约三分之一,因此,训练运行时间很少超过3个月。</p><p>甚至,行业中大多数预训练通常仅需要1-2个月。</p><p>然而,OpenAI的Orion大规模预训练,却打破了这一常规,其训练时间超过了3个月。</p><p>另据Information同一时间爆出,Orion不会像前代实现巨大的飞跃,相较于从GPT-3到GPT-4的迭代,改进幅度要小得多。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/1286f5442a0b9b02f8d2b0c7628caa7f\" title=\"\" tg-width=\"1024\" tg-height=\"306\"/></p><p>不仅如此,Orion性能提升也基本局限在——语言能力上,其代码能力甚至不如旧模型,且成本更高。</p><p>如今再回看2月,GPT-4.5的诞生,基于代号Orion的模型,OpenAI追求的是:</p><p>更强的语言能力+更稳的对话体验+更大知识库</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4db88e04bca5ddff4684dcf0281db961\" title=\"\" tg-width=\"862\" tg-height=\"190\"/></p><p>情商,成为了GPT-4.5的关键词。代码虽有提升,但并非主菜。</p><p>这一切的一切,从侧面印证了,此前外媒关于“Orion遇挫”爆料的准确性——</p><p><strong>LLM有提升,但不大。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6921884c3cb5ce3f00bafde300764e6c\" title=\"\" tg-width=\"1024\" tg-height=\"660\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a5b88a4b3e7a3c48111d7ed25362dabf\" title=\"\" tg-width=\"292\" tg-height=\"73\"/></p><p><strong>GPT-4o,成Scaling主线?</strong></p><p>今年8月,GPT-5的那场发布,奥特曼将其定调为“博士级AI,是通往AGI又一里程碑”。</p><p>实则,业界对于GPT-5的反响,唏嘘一片。</p><p>大家原本以为,GPT-5会是全面超越前代的一次飞跃,但实际发布后,更像是GPT-4.5的进一步优化版,不是“颠覆版”。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/877c420235c2765936cefa6b68976418\" title=\"\" tg-width=\"1024\" tg-height=\"261\"/></p><p>但至于GPT-5真正基于哪一款GPT打造,还有待证实。</p><p>正如之前传闻的猜测,有可能是GPT-4o,还有<a href=\"https://laohu8.com/S/RDDT\">Reddit</a>网友称是GPT-4.1....</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/519913614c83d5cfd2e45812c5779712\" title=\"\" tg-width=\"1024\" tg-height=\"310\"/></p><p>但不论是哪一款,都证明了GPT-5,没有在全新前沿模型的大规模预训练上淬炼。</p><p>搞笑的,那个曾将OpenAI三颗????????????“焊在”名字中的大佬,如今改成了三个????????????。</p><p>他表示,这已经不是什么秘密了——</p><p>GPT-4.5将预训练推向极致之后,OpenAI加倍投入了推理范式,主打o系列+RL。</p><p>不同的是,谷歌和Anthropic仍在Scaling预训练,并增强了强化学习。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/723129e431e6721ce0dc4559751fb026\" title=\"\" tg-width=\"1024\" tg-height=\"757\"/></p><p>OpenAI主动放弃了这一范式,为劲敌让出了一条速通道。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c3e200950fd36f1cb9ff7b28189c45c9\" title=\"\" tg-width=\"1024\" tg-height=\"193\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/1704e104ceef163448365c26ab87c150\" title=\"\" tg-width=\"1024\" tg-height=\"156\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/612407691c118a53eda673fc15662d7f\" title=\"\" tg-width=\"1024\" tg-height=\"353\"/></p><p><strong>奥特曼:这事儿瞒不住了!</strong></p><p>Gemini 3发布后,谷歌和OpenAI攻守之势易形——</p><p>Gemini 3来势汹汹,而OpenAI这次终于坐不住了!</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2513583f1a36406cc833dbd45d5f1b06\" title=\"\" tg-width=\"1024\" tg-height=\"455\"/></p><p>据泄露的内部备忘录,奥特曼坦言:“近期, 从各方面来看,谷歌在大语言模型表现出色”,特别是预训练。</p><p>这番表态标志OpenAI的重大转变——它终于承认,一个重新崛起的竞争对手与逐渐降温的企业需求,已彻底打破了其“天下无敌”的光环。</p><p>所谓预训练,是训练生成式AI模型(无论是文本还是图像)过程中的第一阶段。在这一阶段,研究人员会用网页等大量数据“投喂”模型,让它掌握数据之间的各种关联。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/67af68aad0c888ff9a44df3ff97dc271\" title=\"\" tg-width=\"1024\" tg-height=\"351\"/></p><p>大语言模型(LLM)开发与训练流程概述:预训练和后训练是关键</p><p>在预训练领域,谷歌取得了新突破,给Gemini 3带来了空前的推理深度。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e8cfd09777725c8ba9c83e359f71534b\" title=\"\" tg-width=\"1024\" tg-height=\"935\"/></p><p>这让不少AI研究者颇感意外——</p><p>毕竟,OpenAI去年曾屡屡碰壁,而谷歌自己过去也曾陷入瓶颈。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/cb2d39f20abcbf0ca8a09b75fe93e7d6\" title=\"\" tg-width=\"1024\" tg-height=\"738\"/></p><p>正因如此,在一段时间内,OpenAI选择将更多精力转向另一种新型AI架构——“推理模型”,这种模型虽然计算量更大,但有望输出更优质的回答。</p><p>在推出GPT-5之前,OpenAI团队曾尝试对预训练阶段做出一系列调整,这些方法在小模型上有效,一旦模型变大就失效了。</p><p>GPT-5发布第二天,西班牙与波兰Talan公司AI应用负责人Javier Alba de Alba表示:</p><p>(GPT-5)整体观感颇为失望:</p><p>这是个优秀的模型——响应迅捷、价格亲民、能力全面,但远非人们基于OpenAI过往发布会所预期的代际飞跃。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/733e8aa6a1de749e77b4ae2d5fc36241\" title=\"\" tg-width=\"1024\" tg-height=\"347\"/></p><p>GPT-5带来了不少提升——</p><p>编程能力显著提升、推理能力进阶、幻觉现象减少、医疗领域表现优化,甚至免费用户也享有更长的默认使用时长。此外命名体系全面简化:GPT-4o/4.1/turbo/mini等繁杂名称悉数消失,统一更名为GPT-5。</p><p>不过,Javier Alba de Alba提醒:“千万不要被名称迷惑:GPT-5并非新一代产品。”他解释道:</p><p>技术层面而言,它更像是GPT-4o的功能增强版,即便命名为GPT-4.2也毫不违和。</p><p>OpenAI此举虽完成了必要的名称统一,但整场发布会未能达到预期,让技术社区颇感失落。</p><p>GPT-5发布后,Epoch AI也发现了其中的异常:</p><p>相比前代GPT-4.5,GPT-5很可能消耗了更少的训练算力。</p><p>虽然具体数值尚未公开,但GPT-4.5使用的训练算力极有可能超过GPT-5。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d718b394a2db766bce08136b6bc7820a\" title=\"\" tg-width=\"1024\" tg-height=\"768\"/></p><p>预训练并未消亡,它依然是胜负关键。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/03ccaae7cb8157d43abeb1c182f453f6\" title=\"\" tg-width=\"1024\" tg-height=\"4357\"/></p><p>在内部会议中,奥特曼鼓舞士气,称在未来几个月,OpenAI将重新夺回优势。其中关键举措之一,就是打造一款代号为“Shallotpeat”的新一代大语言模型。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/426ef21c21851844e4005686c5f0d509\" title=\"\" tg-width=\"1024\" tg-height=\"656\"/></p><p>据知情人士透露,该模型的设计目标之一,就是专门修复OpenAI在预训练过程中遇到的种种“疑难杂症”。</p><p><strong>OpenAI:内部的风向变了</strong></p><p>GPT-5发布的实质是什么?</p><p>对现有ChatGPT用户而言,GPT-5是个好消息,但这并未开启<a href=\"https://laohu8.com/S/00166\">新时代</a>。</p><p>它只是进化历程中的一小步,而非革命性飞跃。</p><p>既然更多算力通常意味着更强性能,为何OpenAI会反其道而行?这对未来模型发展意味着什么?</p><p>在与a16z合伙人Martin Casado对话中,OpenAI平台工程负责人Sherwin Wu,深度拆解了OpenAI当前平台架构、定价逻辑与未来方向。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4c40b2ba267dde1f05f4ec328eeb02c6\" title=\"\" tg-width=\"640\" tg-height=\"480\"/></p><p>在这次访谈中,他们深入探讨了为何开发者往往会长期依赖某个“值得信赖”的模型系列,信任感是如何建立的,以及为什么行业已经逐步放弃了“一个模型通吃所有任务”的幻想。</p><p>Sherwin还讲解了从提示词工程到上下文设计的演变过程,以及企业如何借助OpenAI的微调(fine-tuning)和RFT API,利用自有数据定制模型行为。</p><p><strong>共识已变</strong></p><p>几年前,OpenAI内部认为:未来会有一个“统治一切”的超级模型。但现在行业共识已经转变为“模型的专业化和多样化”。</p><p>虽然会有强大的通用模型,但也需要针对特定任务(如编程Codex、视频Sora)的专用模型。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6ffb70725eae1fb889e3782b87239bba\" title=\"\" tg-width=\"1024\" tg-height=\"591\"/></p><p>文本、图像、视频背后的技术堆栈各不同。目前,在后台。这些模型往往是分开优化的独立系统,很难简单地“一锅炖”。</p><p>顺便提一句,正是DALL-E 2的出现让Sherwin决定加入OpenAI,因为那是他第一次感受到AI的魔力。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f6e12233fa906f34344941cdb25a9810\" title=\"\" tg-width=\"902\" tg-height=\"934\"/></p><p><strong>而微调(Fine-tuning)也悄然进化——</strong></p><p>早期的微调,主要用于调整“语气”或“指令遵循”。 现在的重头戏,是强化学习微调(Reinforcement Fine-Tuning) 。</p><p>这允许企业利用其庞大的专有数据(Data Treasure Troves),将较小的模型在特定领域训练至SOTA水平。这是解锁企业数据的关键。</p><p>也就是说,企业拥有大量内部数据,但与ChatGPT“毫无关系”,对企业专属AI而言却是黄金。</p><p>他们多次提到AI代码编辑器Cursor作为建立在 OpenAI API 之上的成功产品案例,证明了:</p><p>即使OpenAI自己有竞品,开发者依然可以建立伟大的垂直应用。</p><p><strong>Agent开发模式</strong></p><p>从第一天起,奥特曼和Greg Brockman就确立了“App+ API”的双轨战略。</p><p>这样做是为了尽可能广泛地分发AGI的利益——</p><p>如果只做 API,你就无法触达普通消费者;如果只做应用,你就无法赋能各行各业的开发者。</p><p>在这次对话中,他们重点谈论了智能体开发工具“Agent Builder”。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/201dfae6a43449d8005d3da7970dee23\" title=\"\" tg-width=\"1024\" tg-height=\"619\"/></p><p>Sherwin认为,智能体(Agent)并非一种全新的模态,而是AI的一种新使用方式。</p><p>本质上,智能体是一个能够代表用户、在<strong>较长的时间跨度</strong>(Long Time Horizons)内执行一系列操作并完成任务的AI系统。</p><p>OpenAI曾推出了可视化的“Agent Builder”(节点式构建),但发现对于开发者而言,这种方式可能过于受限。</p><p>访谈中,Sherwin和Martin将智能体清晰地划分为两类,这解释了为什么目前市面上的Agent产品形态各异——</p><p>探索型/非定向工作 (Undirected/Exploratory Work)</p><p>流程型/SOP导向工作 (Procedural/SOP-oriented Work)</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/60688c8a0e1f7ff3a88cde86be9dc509\" title=\"\" tg-width=\"784\" tg-height=\"1168\"/></p><p><strong>在对话中,第二类</strong>Agent开发可能更像传统的软件工程或游戏开发中的<strong>NPC(非玩家角色)逻辑</strong>。</p><p>与其让模型完全自由发挥,不如通过代码给予它明确的逻辑框架和标准操作程序(SOP),特别是在受监管的行业(如客户支持、金融)。</p><p>也就是说,<strong>逻辑必须写死在代码里,而不是提示词里。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0febfd6f41c50dad6d657fa232544d55\" title=\"\" tg-width=\"1024\" tg-height=\"573\"/></p><p>这就是Agent Builder想要解决的问题:为那些必须控制智能体行为的行业和场景,提供一个简单、清晰、可验证的解决方案。</p><p><strong>One More Thing</strong></p><p>2025年度压轴大戏,谷歌Gemini 3 Pro无疑打了一场胜仗,但OpenAI不会袖手旁观。</p><p>内部已确认,圣诞节前夕,一连串发布连番轰炸。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/068139b0bfd7eab3ce6848402d785da0\" title=\"\" tg-width=\"1024\" tg-height=\"531\"/></p><p>据传,一系列新模型,在路上了——</p><p>Image Gen v2</p><p>IMO和IOI金牌多模态模型</p><p>GPT-5.2 Codex</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d7469baa6b21e416b62badf3a90092a1\" title=\"\" tg-width=\"1024\" tg-height=\"358\"/></p><p>12月,AI圈一定非常热闹。</p><p> </p></body></html>","source":"lsy1569730104218","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>OpenAI大溃败!GPT-5“换皮”GPT-4o,两年半预训练0突破</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\nOpenAI大溃败!GPT-5“换皮”GPT-4o,两年半预训练0突破\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-11-30 14:53 北京时间 <a href=https://mp.weixin.qq.com/s/Y4nvwCeB8xXXPD4-MEeNeg><strong>新智元</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>OpenAI被曝陷入严重技术停滞——其最新发布的GPT-5实质仍是基于GPT-4o架构的优化版本,自2022年GPT-4发布后长达两年半期间未能实现预训练技术的实质性突破。与此同时,谷歌凭借TPUv7在预训练领域突飞猛进,迫使OpenAI紧急启动新模型研发计划以应对技术落后危机。OpenAI核心预训练,接连翻车?传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/Y4nvwCeB8xXXPD4-MEeNeg\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/bf31e5a2ea5c40f9fab4d1b4548dc76d","relate_stocks":{"GOOG":"谷歌","GOOGL":"谷歌A"},"source_url":"https://mp.weixin.qq.com/s/Y4nvwCeB8xXXPD4-MEeNeg","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2587795167","content_text":"OpenAI被曝陷入严重技术停滞——其最新发布的GPT-5实质仍是基于GPT-4o架构的优化版本,自2022年GPT-4发布后长达两年半期间未能实现预训练技术的实质性突破。与此同时,谷歌凭借TPUv7在预训练领域突飞猛进,迫使OpenAI紧急启动新模型研发计划以应对技术落后危机。OpenAI核心预训练,接连翻车?传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被OpenAI放弃了!这么说并非空穴来风,核心爆料恰恰来自权威SemiAnalysis的最新一文——OpenAI顶尖团队自GPT-4o发布之后,迄今尚未完成一次完整的,为下一代前沿模型设计的大规模预训练。文章中,高级分析师强调:谷歌正手持TPUv7这把利剑,向英伟达王座发起冲锋,或将终结CUDA护城河。众所周知,OpenAI全栈模型是在纯英伟达GPU上炼出的。然而,圈内人的焦点,大都放在了大模型“推理”和“后训练”的硬件之上。殊不知,没有前沿模型的预训练,一切皆是“无米之炊”。恰恰这一环节,成为了AI硬件里最难、最耗资源的一关。如今,一个不为人知的内幕爆出了:事实证明,谷歌TPU彻底经受住了这一考验;相较之下,自2024年5月GPT-4o诞生之后,OpenAI的预训练却毫无进展.....过去,两年半的时间,OpenAI没有真正Scaling预训练的规模。GPT的预训练,或许在GPT-4o之后触及了天花板,由此也解释了GPT-5性能未达业界预期的关键原因。有网友表示,那不正是Ilya离开的时候吗.....恰在昨天,Ilya最新发文称,Scaling不会停,但某个重要的东西仍然会缺失。OpenAI预训练,大溃败还记得去年底,那场铺天盖地的“Orion”传闻吗?这一秘密项目,原定以GPT-5面世,但因训练未达预期,最终被降级为GPT-4.5发布。在前沿模型预训练上,OpenAI的研发似乎陷入了僵局——如今第五代旗舰模型GPT-5,包括最新GPT-5.1,其“技术根基”本质或仍未突破GPT-4o的范畴。SemiAnalysis去年底一篇文章,曾对外公开了Orion训练的困境。当前,算法的进步使得模型每年所需的物理计算量减少约三分之一,因此,训练运行时间很少超过3个月。甚至,行业中大多数预训练通常仅需要1-2个月。然而,OpenAI的Orion大规模预训练,却打破了这一常规,其训练时间超过了3个月。另据Information同一时间爆出,Orion不会像前代实现巨大的飞跃,相较于从GPT-3到GPT-4的迭代,改进幅度要小得多。不仅如此,Orion性能提升也基本局限在——语言能力上,其代码能力甚至不如旧模型,且成本更高。如今再回看2月,GPT-4.5的诞生,基于代号Orion的模型,OpenAI追求的是:更强的语言能力+更稳的对话体验+更大知识库情商,成为了GPT-4.5的关键词。代码虽有提升,但并非主菜。这一切的一切,从侧面印证了,此前外媒关于“Orion遇挫”爆料的准确性——LLM有提升,但不大。GPT-4o,成Scaling主线?今年8月,GPT-5的那场发布,奥特曼将其定调为“博士级AI,是通往AGI又一里程碑”。实则,业界对于GPT-5的反响,唏嘘一片。大家原本以为,GPT-5会是全面超越前代的一次飞跃,但实际发布后,更像是GPT-4.5的进一步优化版,不是“颠覆版”。但至于GPT-5真正基于哪一款GPT打造,还有待证实。正如之前传闻的猜测,有可能是GPT-4o,还有Reddit网友称是GPT-4.1....但不论是哪一款,都证明了GPT-5,没有在全新前沿模型的大规模预训练上淬炼。搞笑的,那个曾将OpenAI三颗????????????“焊在”名字中的大佬,如今改成了三个????????????。他表示,这已经不是什么秘密了——GPT-4.5将预训练推向极致之后,OpenAI加倍投入了推理范式,主打o系列+RL。不同的是,谷歌和Anthropic仍在Scaling预训练,并增强了强化学习。OpenAI主动放弃了这一范式,为劲敌让出了一条速通道。奥特曼:这事儿瞒不住了!Gemini 3发布后,谷歌和OpenAI攻守之势易形——Gemini 3来势汹汹,而OpenAI这次终于坐不住了!据泄露的内部备忘录,奥特曼坦言:“近期, 从各方面来看,谷歌在大语言模型表现出色”,特别是预训练。这番表态标志OpenAI的重大转变——它终于承认,一个重新崛起的竞争对手与逐渐降温的企业需求,已彻底打破了其“天下无敌”的光环。所谓预训练,是训练生成式AI模型(无论是文本还是图像)过程中的第一阶段。在这一阶段,研究人员会用网页等大量数据“投喂”模型,让它掌握数据之间的各种关联。大语言模型(LLM)开发与训练流程概述:预训练和后训练是关键在预训练领域,谷歌取得了新突破,给Gemini 3带来了空前的推理深度。这让不少AI研究者颇感意外——毕竟,OpenAI去年曾屡屡碰壁,而谷歌自己过去也曾陷入瓶颈。正因如此,在一段时间内,OpenAI选择将更多精力转向另一种新型AI架构——“推理模型”,这种模型虽然计算量更大,但有望输出更优质的回答。在推出GPT-5之前,OpenAI团队曾尝试对预训练阶段做出一系列调整,这些方法在小模型上有效,一旦模型变大就失效了。GPT-5发布第二天,西班牙与波兰Talan公司AI应用负责人Javier Alba de Alba表示:(GPT-5)整体观感颇为失望:这是个优秀的模型——响应迅捷、价格亲民、能力全面,但远非人们基于OpenAI过往发布会所预期的代际飞跃。GPT-5带来了不少提升——编程能力显著提升、推理能力进阶、幻觉现象减少、医疗领域表现优化,甚至免费用户也享有更长的默认使用时长。此外命名体系全面简化:GPT-4o/4.1/turbo/mini等繁杂名称悉数消失,统一更名为GPT-5。不过,Javier Alba de Alba提醒:“千万不要被名称迷惑:GPT-5并非新一代产品。”他解释道:技术层面而言,它更像是GPT-4o的功能增强版,即便命名为GPT-4.2也毫不违和。OpenAI此举虽完成了必要的名称统一,但整场发布会未能达到预期,让技术社区颇感失落。GPT-5发布后,Epoch AI也发现了其中的异常:相比前代GPT-4.5,GPT-5很可能消耗了更少的训练算力。虽然具体数值尚未公开,但GPT-4.5使用的训练算力极有可能超过GPT-5。预训练并未消亡,它依然是胜负关键。在内部会议中,奥特曼鼓舞士气,称在未来几个月,OpenAI将重新夺回优势。其中关键举措之一,就是打造一款代号为“Shallotpeat”的新一代大语言模型。据知情人士透露,该模型的设计目标之一,就是专门修复OpenAI在预训练过程中遇到的种种“疑难杂症”。OpenAI:内部的风向变了GPT-5发布的实质是什么?对现有ChatGPT用户而言,GPT-5是个好消息,但这并未开启新时代。它只是进化历程中的一小步,而非革命性飞跃。既然更多算力通常意味着更强性能,为何OpenAI会反其道而行?这对未来模型发展意味着什么?在与a16z合伙人Martin Casado对话中,OpenAI平台工程负责人Sherwin Wu,深度拆解了OpenAI当前平台架构、定价逻辑与未来方向。在这次访谈中,他们深入探讨了为何开发者往往会长期依赖某个“值得信赖”的模型系列,信任感是如何建立的,以及为什么行业已经逐步放弃了“一个模型通吃所有任务”的幻想。Sherwin还讲解了从提示词工程到上下文设计的演变过程,以及企业如何借助OpenAI的微调(fine-tuning)和RFT API,利用自有数据定制模型行为。共识已变几年前,OpenAI内部认为:未来会有一个“统治一切”的超级模型。但现在行业共识已经转变为“模型的专业化和多样化”。虽然会有强大的通用模型,但也需要针对特定任务(如编程Codex、视频Sora)的专用模型。文本、图像、视频背后的技术堆栈各不同。目前,在后台。这些模型往往是分开优化的独立系统,很难简单地“一锅炖”。顺便提一句,正是DALL-E 2的出现让Sherwin决定加入OpenAI,因为那是他第一次感受到AI的魔力。而微调(Fine-tuning)也悄然进化——早期的微调,主要用于调整“语气”或“指令遵循”。 现在的重头戏,是强化学习微调(Reinforcement Fine-Tuning) 。这允许企业利用其庞大的专有数据(Data Treasure Troves),将较小的模型在特定领域训练至SOTA水平。这是解锁企业数据的关键。也就是说,企业拥有大量内部数据,但与ChatGPT“毫无关系”,对企业专属AI而言却是黄金。他们多次提到AI代码编辑器Cursor作为建立在 OpenAI API 之上的成功产品案例,证明了:即使OpenAI自己有竞品,开发者依然可以建立伟大的垂直应用。Agent开发模式从第一天起,奥特曼和Greg Brockman就确立了“App+ API”的双轨战略。这样做是为了尽可能广泛地分发AGI的利益——如果只做 API,你就无法触达普通消费者;如果只做应用,你就无法赋能各行各业的开发者。在这次对话中,他们重点谈论了智能体开发工具“Agent Builder”。Sherwin认为,智能体(Agent)并非一种全新的模态,而是AI的一种新使用方式。本质上,智能体是一个能够代表用户、在较长的时间跨度(Long Time Horizons)内执行一系列操作并完成任务的AI系统。OpenAI曾推出了可视化的“Agent Builder”(节点式构建),但发现对于开发者而言,这种方式可能过于受限。访谈中,Sherwin和Martin将智能体清晰地划分为两类,这解释了为什么目前市面上的Agent产品形态各异——探索型/非定向工作 (Undirected/Exploratory Work)流程型/SOP导向工作 (Procedural/SOP-oriented Work)在对话中,第二类Agent开发可能更像传统的软件工程或游戏开发中的NPC(非玩家角色)逻辑。与其让模型完全自由发挥,不如通过代码给予它明确的逻辑框架和标准操作程序(SOP),特别是在受监管的行业(如客户支持、金融)。也就是说,逻辑必须写死在代码里,而不是提示词里。这就是Agent Builder想要解决的问题:为那些必须控制智能体行为的行业和场景,提供一个简单、清晰、可验证的解决方案。One More Thing2025年度压轴大戏,谷歌Gemini 3 Pro无疑打了一场胜仗,但OpenAI不会袖手旁观。内部已确认,圣诞节前夕,一连串发布连番轰炸。据传,一系列新模型,在路上了——Image Gen v2IMO和IOI金牌多模态模型GPT-5.2 Codex12月,AI圈一定非常热闹。","news_type":1,"symbols_score_info":{"GOOG":0.9,"GOOGL":0.9}},"isVote":1,"tweetType":1,"viewCount":301,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":502518822609040,"gmtCreate":1763704318186,"gmtModify":1763704320555,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3460684730001752","authorIdStr":"3460684730001752"},"themes":[],"title":"","htmlText":"跌也不是一下子跌完,慢慢磨,期权价值就磨完了","listText":"跌也不是一下子跌完,慢慢磨,期权价值就磨完了","text":"跌也不是一下子跌完,慢慢磨,期权价值就磨完了","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/502518822609040","repostId":"2585195463","repostType":2,"repost":{"id":"2585195463","kind":"news","weMediaInfo":{"introduction":"早报天天读,汇集天下事,做最好听的有声财经播报。","home_visible":1,"media_name":"格隆汇APP","id":"11","head_image":"https://static.tigerbbs.com/d06797dbcc3b4b9e839c351ca5a14e4d"},"pubTimestamp":1763697735,"share":"https://www.laohu8.com/m/news/2585195463?lang=&edition=full","pubTime":"2025-11-21 12:02","market":"us","language":"zh","title":"英伟达财报后走势“诡异”,6100亿美元“AI庞氏骗局”崩盘?","url":"https://stock-news.laohu8.com/highlight/detail?id=2585195463","media":"格隆汇APP","summary":"英伟达未结账款达334亿美元,一年内激增89%。","content":"<html><head></head><body><p>金融市场独立研究员佩雷拉(Shanaka Anslem Perera)发文称,昨日,一场史无前例的剧变发生。 <a href=\"https://laohu8.com/S/NVDA\">英伟达</a> 股价在财报发布后飙升5%,却在18小时内暴跌至负值区间。<strong>华尔街算法捕捉到了人类未能察觉的异常:账面数据存在严重矛盾。</strong></p><p>周五,英伟达夜盘股价短线“跳水”,截至发稿由涨转跌。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2b5f8ac56f4b709a46cfddf48cf18809\" title=\"\" tg-width=\"1161\" tg-height=\"429\"/></p><p><strong>具体发现如下:</strong></p><p><strong>英伟达披露未结账款达334亿美元,一年内激增89%。购买芯片的客户尚未付款,平均付款周期从46天延长至53天。这额外的一周意味着104亿美元可能永远无法收回。</strong>与此同时,英伟达库存积压芯片达198亿美元,三个月内增长32%。但管理层声称需求疯狂而供应受限。两者不可能同时成立。要么客户不愿购买,要么他们空手下单。现金流揭示了真相。英伟达实际产生145亿美元现金,却报告193亿美元利润。两者相差48亿美元。台积电和AMD等健康芯片企业能将95%以上利润转化为现金,英伟达仅能转化75%。这已达危机级别。</p><p>更令人发指的是:英伟达向xAI注资20亿美元,xAI却借贷125亿美元采购英伟达芯片;微软向OpenAI投入130亿美元,OpenAI承诺斥资500亿美元购买微软云服务;微软为该云平台订购价值1000亿美元的英伟达芯片;甲骨文向OpenAI提供3000亿美元云服务额度,OpenAI则为甲骨文数据中心订购英伟达芯片。同一笔资金在不同公司间循环往复,被多次计入营收。英伟达记账销售额,却无人真正付款。账单日益陈旧,库存不断堆积,现金流始终缺席。</p><p>上周AI公司CEO们已亲口承认。爱彼迎CEO称之为“氛围营收”。OpenAI每年烧掉93亿美元却仅赚37亿美元,年亏损达56亿美元。1570亿美元的估值需要3.1万亿美元的未来利润支撑,而麻省理工学院研究表明95%的人工智能项目永远无法实现这种盈利。<br/>硅谷风投教父彼得·蒂尔于11月9日抛售价值1亿美元的英伟达股票。软银集团11月11日抛售58亿美元持股。“大空头”迈克尔·伯里买入看跌期权,押注英伟达股价将在2026年3月前跌至140美元。</p><p>与人工智能投机密切相关的比特币,已从10月的12.6万美元跌至今日的89,567美元,跌幅达29%。人工智能初创企业持有价值268亿美元的比特币作为贷款抵押品。当英伟达股价再跌40%时,这些贷款将违约,迫使抛售230亿美元比特币,导致加密货币崩盘至5.2万美元。</p><p>时间线已然明朗:2026年2月,英伟达公布财报揭露逾期账款规模;2026年3月,评级机构下调信用评级;2026年4月,首次财务重述。这场耗时18个月构筑的骗局,在90天内土崩瓦解。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/fd5f597ba02e9edfaeba010a07aa50e2\" title=\"\" tg-width=\"1248\" tg-height=\"441\"/></p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>英伟达财报后走势“诡异”,6100亿美元“AI庞氏骗局”崩盘?</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n英伟达财报后走势“诡异”,6100亿美元“AI庞氏骗局”崩盘?\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/11\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/d06797dbcc3b4b9e839c351ca5a14e4d);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">格隆汇APP </p>\n<p class=\"h-time\">2025-11-21 12:02</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>金融市场独立研究员佩雷拉(Shanaka Anslem Perera)发文称,昨日,一场史无前例的剧变发生。 <a href=\"https://laohu8.com/S/NVDA\">英伟达</a> 股价在财报发布后飙升5%,却在18小时内暴跌至负值区间。<strong>华尔街算法捕捉到了人类未能察觉的异常:账面数据存在严重矛盾。</strong></p><p>周五,英伟达夜盘股价短线“跳水”,截至发稿由涨转跌。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2b5f8ac56f4b709a46cfddf48cf18809\" title=\"\" tg-width=\"1161\" tg-height=\"429\"/></p><p><strong>具体发现如下:</strong></p><p><strong>英伟达披露未结账款达334亿美元,一年内激增89%。购买芯片的客户尚未付款,平均付款周期从46天延长至53天。这额外的一周意味着104亿美元可能永远无法收回。</strong>与此同时,英伟达库存积压芯片达198亿美元,三个月内增长32%。但管理层声称需求疯狂而供应受限。两者不可能同时成立。要么客户不愿购买,要么他们空手下单。现金流揭示了真相。英伟达实际产生145亿美元现金,却报告193亿美元利润。两者相差48亿美元。台积电和AMD等健康芯片企业能将95%以上利润转化为现金,英伟达仅能转化75%。这已达危机级别。</p><p>更令人发指的是:英伟达向xAI注资20亿美元,xAI却借贷125亿美元采购英伟达芯片;微软向OpenAI投入130亿美元,OpenAI承诺斥资500亿美元购买微软云服务;微软为该云平台订购价值1000亿美元的英伟达芯片;甲骨文向OpenAI提供3000亿美元云服务额度,OpenAI则为甲骨文数据中心订购英伟达芯片。同一笔资金在不同公司间循环往复,被多次计入营收。英伟达记账销售额,却无人真正付款。账单日益陈旧,库存不断堆积,现金流始终缺席。</p><p>上周AI公司CEO们已亲口承认。爱彼迎CEO称之为“氛围营收”。OpenAI每年烧掉93亿美元却仅赚37亿美元,年亏损达56亿美元。1570亿美元的估值需要3.1万亿美元的未来利润支撑,而麻省理工学院研究表明95%的人工智能项目永远无法实现这种盈利。<br/>硅谷风投教父彼得·蒂尔于11月9日抛售价值1亿美元的英伟达股票。软银集团11月11日抛售58亿美元持股。“大空头”迈克尔·伯里买入看跌期权,押注英伟达股价将在2026年3月前跌至140美元。</p><p>与人工智能投机密切相关的比特币,已从10月的12.6万美元跌至今日的89,567美元,跌幅达29%。人工智能初创企业持有价值268亿美元的比特币作为贷款抵押品。当英伟达股价再跌40%时,这些贷款将违约,迫使抛售230亿美元比特币,导致加密货币崩盘至5.2万美元。</p><p>时间线已然明朗:2026年2月,英伟达公布财报揭露逾期账款规模;2026年3月,评级机构下调信用评级;2026年4月,首次财务重述。这场耗时18个月构筑的骗局,在90天内土崩瓦解。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/fd5f597ba02e9edfaeba010a07aa50e2\" title=\"\" tg-width=\"1248\" tg-height=\"441\"/></p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/7308276753c5ff6ceaac8e2cceebffd3","relate_stocks":{"NVDA":"英伟达"},"source_url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20251121120511a4b0a566&s=b","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2585195463","content_text":"金融市场独立研究员佩雷拉(Shanaka Anslem Perera)发文称,昨日,一场史无前例的剧变发生。 英伟达 股价在财报发布后飙升5%,却在18小时内暴跌至负值区间。华尔街算法捕捉到了人类未能察觉的异常:账面数据存在严重矛盾。周五,英伟达夜盘股价短线“跳水”,截至发稿由涨转跌。具体发现如下:英伟达披露未结账款达334亿美元,一年内激增89%。购买芯片的客户尚未付款,平均付款周期从46天延长至53天。这额外的一周意味着104亿美元可能永远无法收回。与此同时,英伟达库存积压芯片达198亿美元,三个月内增长32%。但管理层声称需求疯狂而供应受限。两者不可能同时成立。要么客户不愿购买,要么他们空手下单。现金流揭示了真相。英伟达实际产生145亿美元现金,却报告193亿美元利润。两者相差48亿美元。台积电和AMD等健康芯片企业能将95%以上利润转化为现金,英伟达仅能转化75%。这已达危机级别。更令人发指的是:英伟达向xAI注资20亿美元,xAI却借贷125亿美元采购英伟达芯片;微软向OpenAI投入130亿美元,OpenAI承诺斥资500亿美元购买微软云服务;微软为该云平台订购价值1000亿美元的英伟达芯片;甲骨文向OpenAI提供3000亿美元云服务额度,OpenAI则为甲骨文数据中心订购英伟达芯片。同一笔资金在不同公司间循环往复,被多次计入营收。英伟达记账销售额,却无人真正付款。账单日益陈旧,库存不断堆积,现金流始终缺席。上周AI公司CEO们已亲口承认。爱彼迎CEO称之为“氛围营收”。OpenAI每年烧掉93亿美元却仅赚37亿美元,年亏损达56亿美元。1570亿美元的估值需要3.1万亿美元的未来利润支撑,而麻省理工学院研究表明95%的人工智能项目永远无法实现这种盈利。硅谷风投教父彼得·蒂尔于11月9日抛售价值1亿美元的英伟达股票。软银集团11月11日抛售58亿美元持股。“大空头”迈克尔·伯里买入看跌期权,押注英伟达股价将在2026年3月前跌至140美元。与人工智能投机密切相关的比特币,已从10月的12.6万美元跌至今日的89,567美元,跌幅达29%。人工智能初创企业持有价值268亿美元的比特币作为贷款抵押品。当英伟达股价再跌40%时,这些贷款将违约,迫使抛售230亿美元比特币,导致加密货币崩盘至5.2万美元。时间线已然明朗:2026年2月,英伟达公布财报揭露逾期账款规模;2026年3月,评级机构下调信用评级;2026年4月,首次财务重述。这场耗时18个月构筑的骗局,在90天内土崩瓦解。","news_type":1,"symbols_score_info":{"NVDA":2}},"isVote":1,"tweetType":1,"viewCount":228,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":454878081876504,"gmtCreate":1752071896059,"gmtModify":1752071907524,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3460684730001752","authorIdStr":"3460684730001752"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/OPT/NVDA 20250711 165.0 CALL\">$NVDA 20250711 165.0 CALL$</a> 盈利靠信仰","listText":"<a href=\"https://laohu8.com/OPT/NVDA 20250711 165.0 CALL\">$NVDA 20250711 165.0 CALL$</a> 盈利靠信仰","text":"$NVDA 20250711 165.0 CALL$ 盈利靠信仰","images":[{"img":"https://static.tigerbbs.com/b3e4b7c3e6176901aaa5b547119f5e60","width":"696","height":"1122"}],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/454878081876504","isVote":1,"tweetType":1,"viewCount":1558,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":1,"langContent":"CN","totalScore":0},{"id":359108911050768,"gmtCreate":1728713555800,"gmtModify":1728713558117,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3460684730001752","authorIdStr":"3460684730001752"},"themes":[],"htmlText":"逢低买入,牛市见顶还早呢!","listText":"逢低买入,牛市见顶还早呢!","text":"逢低买入,牛市见顶还早呢!","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/359108911050768","isVote":1,"tweetType":1,"viewCount":2280,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":270599,"gmtCreate":1537276184154,"gmtModify":1704773902120,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3460684730001752","authorIdStr":"3460684730001752"},"themes":[],"htmlText":"$Tilray Inc.(TLRY)$ 这是今年最妖的股了","listText":"$Tilray Inc.(TLRY)$ 这是今年最妖的股了","text":"$Tilray Inc.(TLRY)$ 这是今年最妖的股了","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/270599","isVote":1,"tweetType":1,"viewCount":2876,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":265950,"gmtCreate":1536848951344,"gmtModify":1704773306476,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3460684730001752","authorIdStr":"3460684730001752"},"themes":[],"htmlText":"$Facebook(FB)$ 小扎你能不能好好的?","listText":"$Facebook(FB)$ 小扎你能不能好好的?","text":"$Facebook(FB)$ 小扎你能不能好好的?","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/265950","isVote":1,"tweetType":1,"viewCount":2498,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":265944,"gmtCreate":1536848853732,"gmtModify":1704773306118,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"idStr":"3460684730001752","authorIdStr":"3460684730001752"},"themes":[],"htmlText":"$Facebook(FB)$ 所有股票都涨,就你在跌!!","listText":"$Facebook(FB)$ 所有股票都涨,就你在跌!!","text":"$Facebook(FB)$ 所有股票都涨,就你在跌!!","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/265944","isVote":1,"tweetType":1,"viewCount":2786,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0}],"hots":[{"id":454878081876504,"gmtCreate":1752071896059,"gmtModify":1752071907524,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3460684730001752","idStr":"3460684730001752"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/OPT/NVDA 20250711 165.0 CALL\">$NVDA 20250711 165.0 CALL$</a> 盈利靠信仰","listText":"<a href=\"https://laohu8.com/OPT/NVDA 20250711 165.0 CALL\">$NVDA 20250711 165.0 CALL$</a> 盈利靠信仰","text":"$NVDA 20250711 165.0 CALL$ 盈利靠信仰","images":[{"img":"https://static.tigerbbs.com/b3e4b7c3e6176901aaa5b547119f5e60","width":"696","height":"1122"}],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/454878081876504","isVote":1,"tweetType":1,"viewCount":1558,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":1,"langContent":"CN","totalScore":0},{"id":505997827269448,"gmtCreate":1764558804519,"gmtModify":1764558807035,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3460684730001752","idStr":"3460684730001752"},"themes":[],"title":"","htmlText":"那为啥谷歌会跟着跌","listText":"那为啥谷歌会跟着跌","text":"那为啥谷歌会跟着跌","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/505997827269448","repostId":"2587795167","repostType":2,"repost":{"id":"2587795167","kind":"news","pubTimestamp":1764485625,"share":"https://www.laohu8.com/m/news/2587795167?lang=&edition=full","pubTime":"2025-11-30 14:53","market":"us","language":"zh","title":"OpenAI大溃败!GPT-5“换皮”GPT-4o,两年半预训练0突破","url":"https://stock-news.laohu8.com/highlight/detail?id=2587795167","media":"新智元","summary":"OpenAI核心预训练,接连翻车?传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被OpenAI放弃了!在前沿模型预训练上,OpenAI的研发似乎陷入了僵局——如今第五代旗舰模型GPT-5,包括最新GPT-5.1,其“技术根基”本质或仍未突破GPT-4o的范畴。然而,OpenAI的Orion大规模预训练,却打破了这一常规,其训练时间超过了3个月。但至于GPT-5真正基于哪一款GPT打造,还有待证实。OpenAI主动放弃了这一范式,为劲敌让出了一条速通道。","content":"<html><head></head><body><blockquote><p>OpenAI被曝陷入严重技术停滞——其最新发布的GPT-5实质仍是基于GPT-4o架构的优化版本,自2022年GPT-4发布后长达两年半期间未能实现预训练技术的实质性突破。与此同时,谷歌凭借TPUv7在预训练领域突飞猛进,迫使OpenAI紧急启动新模型研发计划以应对技术落后危机。</p></blockquote><p>OpenAI核心预训练,接连翻车?</p><p>传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被OpenAI放弃了!</p><p>这么说并非空穴来风,核心爆料恰恰来自权威SemiAnalysis的最新一文——</p><p>OpenAI顶尖团队自GPT-4o发布之后,迄今尚未完成一次完整的,为下一代前沿模型设计的大规模预训练。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/17b01384fdead3e442ce6446294fcca2\" title=\"\" tg-width=\"1024\" tg-height=\"1317\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/48a85ba896dc71539eae0ffe7640c8fd\" title=\"\" tg-width=\"1024\" tg-height=\"163\"/></p><p>文章中,高级分析师强调:<a href=\"https://laohu8.com/S/GOOG\">谷歌</a>正手持TPUv7这把利剑,向<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>王座发起冲锋,或将终结CUDA护城河。</p><p>众所周知,OpenAI全栈模型是在纯英伟达GPU上炼出的。</p><p>然而,圈内人的焦点,大都放在了大模型“推理”和“后训练”的硬件之上。</p><p>殊不知,没有前沿模型的预训练,一切皆是“无米之炊”。恰恰这一环节,成为了AI硬件里最难、最耗资源的一关。</p><p>如今,一个不为人知的内幕爆出了:</p><p>事实证明,<a href=\"https://laohu8.com/S/GOOGL\">谷歌</a>TPU彻底经受住了这一考验;</p><p>相较之下,自2024年5月GPT-4o诞生之后,OpenAI的预训练却毫无进展.....</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/96925999a2f079cdc34c93805d99a3ec\" title=\"\" tg-width=\"1024\" tg-height=\"284\"/></p><p>过去,两年半的时间,OpenAI没有真正Scaling预训练的规模。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/02adb07ec4500dfb06d8f57e9a419fc0\" title=\"\" tg-width=\"1024\" tg-height=\"682\"/></p><p>GPT的预训练,或许在GPT-4o之后触及了天花板,由此也解释了GPT-5性能未达业界预期的关键原因。</p><p>有网友表示,那不正是Ilya离开的时候吗.....</p><p>恰在昨天,Ilya最新发文称,Scaling不会停,但某个重要的东西仍然会缺失。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7332362c7b866ea1b461ba37aa58e2b9\" title=\"\" tg-width=\"1024\" tg-height=\"153\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4a4cc533e69b244512a4aa8458b68b1b\" title=\"\" tg-width=\"1024\" tg-height=\"420\"/></p><p><strong>OpenAI预训练,大溃败</strong></p><p>还记得去年底,那场铺天盖地的“Orion”传闻吗?</p><p>这一秘密项目,原定以GPT-5面世,但因训练未达预期,最终被降级为GPT-4.5发布。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0a7e9650c9b0c237429ef77db04b2410\" title=\"\" tg-width=\"1024\" tg-height=\"350\"/></p><p>在前沿模型预训练上,OpenAI的研发似乎陷入了僵局——</p><p>如今第五代旗舰模型GPT-5,包括最新GPT-5.1,其“技术根基”本质或仍未突破GPT-4o的范畴。</p><p>SemiAnalysis去年底一篇文章,曾对外公开了Orion训练的困境。</p><p>当前,算法的进步使得模型每年所需的物理计算量减少约三分之一,因此,训练运行时间很少超过3个月。</p><p>甚至,行业中大多数预训练通常仅需要1-2个月。</p><p>然而,OpenAI的Orion大规模预训练,却打破了这一常规,其训练时间超过了3个月。</p><p>另据Information同一时间爆出,Orion不会像前代实现巨大的飞跃,相较于从GPT-3到GPT-4的迭代,改进幅度要小得多。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/1286f5442a0b9b02f8d2b0c7628caa7f\" title=\"\" tg-width=\"1024\" tg-height=\"306\"/></p><p>不仅如此,Orion性能提升也基本局限在——语言能力上,其代码能力甚至不如旧模型,且成本更高。</p><p>如今再回看2月,GPT-4.5的诞生,基于代号Orion的模型,OpenAI追求的是:</p><p>更强的语言能力+更稳的对话体验+更大知识库</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4db88e04bca5ddff4684dcf0281db961\" title=\"\" tg-width=\"862\" tg-height=\"190\"/></p><p>情商,成为了GPT-4.5的关键词。代码虽有提升,但并非主菜。</p><p>这一切的一切,从侧面印证了,此前外媒关于“Orion遇挫”爆料的准确性——</p><p><strong>LLM有提升,但不大。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6921884c3cb5ce3f00bafde300764e6c\" title=\"\" tg-width=\"1024\" tg-height=\"660\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a5b88a4b3e7a3c48111d7ed25362dabf\" title=\"\" tg-width=\"292\" tg-height=\"73\"/></p><p><strong>GPT-4o,成Scaling主线?</strong></p><p>今年8月,GPT-5的那场发布,奥特曼将其定调为“博士级AI,是通往AGI又一里程碑”。</p><p>实则,业界对于GPT-5的反响,唏嘘一片。</p><p>大家原本以为,GPT-5会是全面超越前代的一次飞跃,但实际发布后,更像是GPT-4.5的进一步优化版,不是“颠覆版”。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/877c420235c2765936cefa6b68976418\" title=\"\" tg-width=\"1024\" tg-height=\"261\"/></p><p>但至于GPT-5真正基于哪一款GPT打造,还有待证实。</p><p>正如之前传闻的猜测,有可能是GPT-4o,还有<a href=\"https://laohu8.com/S/RDDT\">Reddit</a>网友称是GPT-4.1....</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/519913614c83d5cfd2e45812c5779712\" title=\"\" tg-width=\"1024\" tg-height=\"310\"/></p><p>但不论是哪一款,都证明了GPT-5,没有在全新前沿模型的大规模预训练上淬炼。</p><p>搞笑的,那个曾将OpenAI三颗????????????“焊在”名字中的大佬,如今改成了三个????????????。</p><p>他表示,这已经不是什么秘密了——</p><p>GPT-4.5将预训练推向极致之后,OpenAI加倍投入了推理范式,主打o系列+RL。</p><p>不同的是,谷歌和Anthropic仍在Scaling预训练,并增强了强化学习。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/723129e431e6721ce0dc4559751fb026\" title=\"\" tg-width=\"1024\" tg-height=\"757\"/></p><p>OpenAI主动放弃了这一范式,为劲敌让出了一条速通道。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c3e200950fd36f1cb9ff7b28189c45c9\" title=\"\" tg-width=\"1024\" tg-height=\"193\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/1704e104ceef163448365c26ab87c150\" title=\"\" tg-width=\"1024\" tg-height=\"156\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/612407691c118a53eda673fc15662d7f\" title=\"\" tg-width=\"1024\" tg-height=\"353\"/></p><p><strong>奥特曼:这事儿瞒不住了!</strong></p><p>Gemini 3发布后,谷歌和OpenAI攻守之势易形——</p><p>Gemini 3来势汹汹,而OpenAI这次终于坐不住了!</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2513583f1a36406cc833dbd45d5f1b06\" title=\"\" tg-width=\"1024\" tg-height=\"455\"/></p><p>据泄露的内部备忘录,奥特曼坦言:“近期, 从各方面来看,谷歌在大语言模型表现出色”,特别是预训练。</p><p>这番表态标志OpenAI的重大转变——它终于承认,一个重新崛起的竞争对手与逐渐降温的企业需求,已彻底打破了其“天下无敌”的光环。</p><p>所谓预训练,是训练生成式AI模型(无论是文本还是图像)过程中的第一阶段。在这一阶段,研究人员会用网页等大量数据“投喂”模型,让它掌握数据之间的各种关联。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/67af68aad0c888ff9a44df3ff97dc271\" title=\"\" tg-width=\"1024\" tg-height=\"351\"/></p><p>大语言模型(LLM)开发与训练流程概述:预训练和后训练是关键</p><p>在预训练领域,谷歌取得了新突破,给Gemini 3带来了空前的推理深度。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e8cfd09777725c8ba9c83e359f71534b\" title=\"\" tg-width=\"1024\" tg-height=\"935\"/></p><p>这让不少AI研究者颇感意外——</p><p>毕竟,OpenAI去年曾屡屡碰壁,而谷歌自己过去也曾陷入瓶颈。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/cb2d39f20abcbf0ca8a09b75fe93e7d6\" title=\"\" tg-width=\"1024\" tg-height=\"738\"/></p><p>正因如此,在一段时间内,OpenAI选择将更多精力转向另一种新型AI架构——“推理模型”,这种模型虽然计算量更大,但有望输出更优质的回答。</p><p>在推出GPT-5之前,OpenAI团队曾尝试对预训练阶段做出一系列调整,这些方法在小模型上有效,一旦模型变大就失效了。</p><p>GPT-5发布第二天,西班牙与波兰Talan公司AI应用负责人Javier Alba de Alba表示:</p><p>(GPT-5)整体观感颇为失望:</p><p>这是个优秀的模型——响应迅捷、价格亲民、能力全面,但远非人们基于OpenAI过往发布会所预期的代际飞跃。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/733e8aa6a1de749e77b4ae2d5fc36241\" title=\"\" tg-width=\"1024\" tg-height=\"347\"/></p><p>GPT-5带来了不少提升——</p><p>编程能力显著提升、推理能力进阶、幻觉现象减少、医疗领域表现优化,甚至免费用户也享有更长的默认使用时长。此外命名体系全面简化:GPT-4o/4.1/turbo/mini等繁杂名称悉数消失,统一更名为GPT-5。</p><p>不过,Javier Alba de Alba提醒:“千万不要被名称迷惑:GPT-5并非新一代产品。”他解释道:</p><p>技术层面而言,它更像是GPT-4o的功能增强版,即便命名为GPT-4.2也毫不违和。</p><p>OpenAI此举虽完成了必要的名称统一,但整场发布会未能达到预期,让技术社区颇感失落。</p><p>GPT-5发布后,Epoch AI也发现了其中的异常:</p><p>相比前代GPT-4.5,GPT-5很可能消耗了更少的训练算力。</p><p>虽然具体数值尚未公开,但GPT-4.5使用的训练算力极有可能超过GPT-5。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d718b394a2db766bce08136b6bc7820a\" title=\"\" tg-width=\"1024\" tg-height=\"768\"/></p><p>预训练并未消亡,它依然是胜负关键。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/03ccaae7cb8157d43abeb1c182f453f6\" title=\"\" tg-width=\"1024\" tg-height=\"4357\"/></p><p>在内部会议中,奥特曼鼓舞士气,称在未来几个月,OpenAI将重新夺回优势。其中关键举措之一,就是打造一款代号为“Shallotpeat”的新一代大语言模型。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/426ef21c21851844e4005686c5f0d509\" title=\"\" tg-width=\"1024\" tg-height=\"656\"/></p><p>据知情人士透露,该模型的设计目标之一,就是专门修复OpenAI在预训练过程中遇到的种种“疑难杂症”。</p><p><strong>OpenAI:内部的风向变了</strong></p><p>GPT-5发布的实质是什么?</p><p>对现有ChatGPT用户而言,GPT-5是个好消息,但这并未开启<a href=\"https://laohu8.com/S/00166\">新时代</a>。</p><p>它只是进化历程中的一小步,而非革命性飞跃。</p><p>既然更多算力通常意味着更强性能,为何OpenAI会反其道而行?这对未来模型发展意味着什么?</p><p>在与a16z合伙人Martin Casado对话中,OpenAI平台工程负责人Sherwin Wu,深度拆解了OpenAI当前平台架构、定价逻辑与未来方向。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4c40b2ba267dde1f05f4ec328eeb02c6\" title=\"\" tg-width=\"640\" tg-height=\"480\"/></p><p>在这次访谈中,他们深入探讨了为何开发者往往会长期依赖某个“值得信赖”的模型系列,信任感是如何建立的,以及为什么行业已经逐步放弃了“一个模型通吃所有任务”的幻想。</p><p>Sherwin还讲解了从提示词工程到上下文设计的演变过程,以及企业如何借助OpenAI的微调(fine-tuning)和RFT API,利用自有数据定制模型行为。</p><p><strong>共识已变</strong></p><p>几年前,OpenAI内部认为:未来会有一个“统治一切”的超级模型。但现在行业共识已经转变为“模型的专业化和多样化”。</p><p>虽然会有强大的通用模型,但也需要针对特定任务(如编程Codex、视频Sora)的专用模型。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6ffb70725eae1fb889e3782b87239bba\" title=\"\" tg-width=\"1024\" tg-height=\"591\"/></p><p>文本、图像、视频背后的技术堆栈各不同。目前,在后台。这些模型往往是分开优化的独立系统,很难简单地“一锅炖”。</p><p>顺便提一句,正是DALL-E 2的出现让Sherwin决定加入OpenAI,因为那是他第一次感受到AI的魔力。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f6e12233fa906f34344941cdb25a9810\" title=\"\" tg-width=\"902\" tg-height=\"934\"/></p><p><strong>而微调(Fine-tuning)也悄然进化——</strong></p><p>早期的微调,主要用于调整“语气”或“指令遵循”。 现在的重头戏,是强化学习微调(Reinforcement Fine-Tuning) 。</p><p>这允许企业利用其庞大的专有数据(Data Treasure Troves),将较小的模型在特定领域训练至SOTA水平。这是解锁企业数据的关键。</p><p>也就是说,企业拥有大量内部数据,但与ChatGPT“毫无关系”,对企业专属AI而言却是黄金。</p><p>他们多次提到AI代码编辑器Cursor作为建立在 OpenAI API 之上的成功产品案例,证明了:</p><p>即使OpenAI自己有竞品,开发者依然可以建立伟大的垂直应用。</p><p><strong>Agent开发模式</strong></p><p>从第一天起,奥特曼和Greg Brockman就确立了“App+ API”的双轨战略。</p><p>这样做是为了尽可能广泛地分发AGI的利益——</p><p>如果只做 API,你就无法触达普通消费者;如果只做应用,你就无法赋能各行各业的开发者。</p><p>在这次对话中,他们重点谈论了智能体开发工具“Agent Builder”。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/201dfae6a43449d8005d3da7970dee23\" title=\"\" tg-width=\"1024\" tg-height=\"619\"/></p><p>Sherwin认为,智能体(Agent)并非一种全新的模态,而是AI的一种新使用方式。</p><p>本质上,智能体是一个能够代表用户、在<strong>较长的时间跨度</strong>(Long Time Horizons)内执行一系列操作并完成任务的AI系统。</p><p>OpenAI曾推出了可视化的“Agent Builder”(节点式构建),但发现对于开发者而言,这种方式可能过于受限。</p><p>访谈中,Sherwin和Martin将智能体清晰地划分为两类,这解释了为什么目前市面上的Agent产品形态各异——</p><p>探索型/非定向工作 (Undirected/Exploratory Work)</p><p>流程型/SOP导向工作 (Procedural/SOP-oriented Work)</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/60688c8a0e1f7ff3a88cde86be9dc509\" title=\"\" tg-width=\"784\" tg-height=\"1168\"/></p><p><strong>在对话中,第二类</strong>Agent开发可能更像传统的软件工程或游戏开发中的<strong>NPC(非玩家角色)逻辑</strong>。</p><p>与其让模型完全自由发挥,不如通过代码给予它明确的逻辑框架和标准操作程序(SOP),特别是在受监管的行业(如客户支持、金融)。</p><p>也就是说,<strong>逻辑必须写死在代码里,而不是提示词里。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0febfd6f41c50dad6d657fa232544d55\" title=\"\" tg-width=\"1024\" tg-height=\"573\"/></p><p>这就是Agent Builder想要解决的问题:为那些必须控制智能体行为的行业和场景,提供一个简单、清晰、可验证的解决方案。</p><p><strong>One More Thing</strong></p><p>2025年度压轴大戏,谷歌Gemini 3 Pro无疑打了一场胜仗,但OpenAI不会袖手旁观。</p><p>内部已确认,圣诞节前夕,一连串发布连番轰炸。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/068139b0bfd7eab3ce6848402d785da0\" title=\"\" tg-width=\"1024\" tg-height=\"531\"/></p><p>据传,一系列新模型,在路上了——</p><p>Image Gen v2</p><p>IMO和IOI金牌多模态模型</p><p>GPT-5.2 Codex</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d7469baa6b21e416b62badf3a90092a1\" title=\"\" tg-width=\"1024\" tg-height=\"358\"/></p><p>12月,AI圈一定非常热闹。</p><p> </p></body></html>","source":"lsy1569730104218","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>OpenAI大溃败!GPT-5“换皮”GPT-4o,两年半预训练0突破</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\nOpenAI大溃败!GPT-5“换皮”GPT-4o,两年半预训练0突破\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-11-30 14:53 北京时间 <a href=https://mp.weixin.qq.com/s/Y4nvwCeB8xXXPD4-MEeNeg><strong>新智元</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>OpenAI被曝陷入严重技术停滞——其最新发布的GPT-5实质仍是基于GPT-4o架构的优化版本,自2022年GPT-4发布后长达两年半期间未能实现预训练技术的实质性突破。与此同时,谷歌凭借TPUv7在预训练领域突飞猛进,迫使OpenAI紧急启动新模型研发计划以应对技术落后危机。OpenAI核心预训练,接连翻车?传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/Y4nvwCeB8xXXPD4-MEeNeg\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/bf31e5a2ea5c40f9fab4d1b4548dc76d","relate_stocks":{"GOOG":"谷歌","GOOGL":"谷歌A"},"source_url":"https://mp.weixin.qq.com/s/Y4nvwCeB8xXXPD4-MEeNeg","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2587795167","content_text":"OpenAI被曝陷入严重技术停滞——其最新发布的GPT-5实质仍是基于GPT-4o架构的优化版本,自2022年GPT-4发布后长达两年半期间未能实现预训练技术的实质性突破。与此同时,谷歌凭借TPUv7在预训练领域突飞猛进,迫使OpenAI紧急启动新模型研发计划以应对技术落后危机。OpenAI核心预训练,接连翻车?传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被OpenAI放弃了!这么说并非空穴来风,核心爆料恰恰来自权威SemiAnalysis的最新一文——OpenAI顶尖团队自GPT-4o发布之后,迄今尚未完成一次完整的,为下一代前沿模型设计的大规模预训练。文章中,高级分析师强调:谷歌正手持TPUv7这把利剑,向英伟达王座发起冲锋,或将终结CUDA护城河。众所周知,OpenAI全栈模型是在纯英伟达GPU上炼出的。然而,圈内人的焦点,大都放在了大模型“推理”和“后训练”的硬件之上。殊不知,没有前沿模型的预训练,一切皆是“无米之炊”。恰恰这一环节,成为了AI硬件里最难、最耗资源的一关。如今,一个不为人知的内幕爆出了:事实证明,谷歌TPU彻底经受住了这一考验;相较之下,自2024年5月GPT-4o诞生之后,OpenAI的预训练却毫无进展.....过去,两年半的时间,OpenAI没有真正Scaling预训练的规模。GPT的预训练,或许在GPT-4o之后触及了天花板,由此也解释了GPT-5性能未达业界预期的关键原因。有网友表示,那不正是Ilya离开的时候吗.....恰在昨天,Ilya最新发文称,Scaling不会停,但某个重要的东西仍然会缺失。OpenAI预训练,大溃败还记得去年底,那场铺天盖地的“Orion”传闻吗?这一秘密项目,原定以GPT-5面世,但因训练未达预期,最终被降级为GPT-4.5发布。在前沿模型预训练上,OpenAI的研发似乎陷入了僵局——如今第五代旗舰模型GPT-5,包括最新GPT-5.1,其“技术根基”本质或仍未突破GPT-4o的范畴。SemiAnalysis去年底一篇文章,曾对外公开了Orion训练的困境。当前,算法的进步使得模型每年所需的物理计算量减少约三分之一,因此,训练运行时间很少超过3个月。甚至,行业中大多数预训练通常仅需要1-2个月。然而,OpenAI的Orion大规模预训练,却打破了这一常规,其训练时间超过了3个月。另据Information同一时间爆出,Orion不会像前代实现巨大的飞跃,相较于从GPT-3到GPT-4的迭代,改进幅度要小得多。不仅如此,Orion性能提升也基本局限在——语言能力上,其代码能力甚至不如旧模型,且成本更高。如今再回看2月,GPT-4.5的诞生,基于代号Orion的模型,OpenAI追求的是:更强的语言能力+更稳的对话体验+更大知识库情商,成为了GPT-4.5的关键词。代码虽有提升,但并非主菜。这一切的一切,从侧面印证了,此前外媒关于“Orion遇挫”爆料的准确性——LLM有提升,但不大。GPT-4o,成Scaling主线?今年8月,GPT-5的那场发布,奥特曼将其定调为“博士级AI,是通往AGI又一里程碑”。实则,业界对于GPT-5的反响,唏嘘一片。大家原本以为,GPT-5会是全面超越前代的一次飞跃,但实际发布后,更像是GPT-4.5的进一步优化版,不是“颠覆版”。但至于GPT-5真正基于哪一款GPT打造,还有待证实。正如之前传闻的猜测,有可能是GPT-4o,还有Reddit网友称是GPT-4.1....但不论是哪一款,都证明了GPT-5,没有在全新前沿模型的大规模预训练上淬炼。搞笑的,那个曾将OpenAI三颗????????????“焊在”名字中的大佬,如今改成了三个????????????。他表示,这已经不是什么秘密了——GPT-4.5将预训练推向极致之后,OpenAI加倍投入了推理范式,主打o系列+RL。不同的是,谷歌和Anthropic仍在Scaling预训练,并增强了强化学习。OpenAI主动放弃了这一范式,为劲敌让出了一条速通道。奥特曼:这事儿瞒不住了!Gemini 3发布后,谷歌和OpenAI攻守之势易形——Gemini 3来势汹汹,而OpenAI这次终于坐不住了!据泄露的内部备忘录,奥特曼坦言:“近期, 从各方面来看,谷歌在大语言模型表现出色”,特别是预训练。这番表态标志OpenAI的重大转变——它终于承认,一个重新崛起的竞争对手与逐渐降温的企业需求,已彻底打破了其“天下无敌”的光环。所谓预训练,是训练生成式AI模型(无论是文本还是图像)过程中的第一阶段。在这一阶段,研究人员会用网页等大量数据“投喂”模型,让它掌握数据之间的各种关联。大语言模型(LLM)开发与训练流程概述:预训练和后训练是关键在预训练领域,谷歌取得了新突破,给Gemini 3带来了空前的推理深度。这让不少AI研究者颇感意外——毕竟,OpenAI去年曾屡屡碰壁,而谷歌自己过去也曾陷入瓶颈。正因如此,在一段时间内,OpenAI选择将更多精力转向另一种新型AI架构——“推理模型”,这种模型虽然计算量更大,但有望输出更优质的回答。在推出GPT-5之前,OpenAI团队曾尝试对预训练阶段做出一系列调整,这些方法在小模型上有效,一旦模型变大就失效了。GPT-5发布第二天,西班牙与波兰Talan公司AI应用负责人Javier Alba de Alba表示:(GPT-5)整体观感颇为失望:这是个优秀的模型——响应迅捷、价格亲民、能力全面,但远非人们基于OpenAI过往发布会所预期的代际飞跃。GPT-5带来了不少提升——编程能力显著提升、推理能力进阶、幻觉现象减少、医疗领域表现优化,甚至免费用户也享有更长的默认使用时长。此外命名体系全面简化:GPT-4o/4.1/turbo/mini等繁杂名称悉数消失,统一更名为GPT-5。不过,Javier Alba de Alba提醒:“千万不要被名称迷惑:GPT-5并非新一代产品。”他解释道:技术层面而言,它更像是GPT-4o的功能增强版,即便命名为GPT-4.2也毫不违和。OpenAI此举虽完成了必要的名称统一,但整场发布会未能达到预期,让技术社区颇感失落。GPT-5发布后,Epoch AI也发现了其中的异常:相比前代GPT-4.5,GPT-5很可能消耗了更少的训练算力。虽然具体数值尚未公开,但GPT-4.5使用的训练算力极有可能超过GPT-5。预训练并未消亡,它依然是胜负关键。在内部会议中,奥特曼鼓舞士气,称在未来几个月,OpenAI将重新夺回优势。其中关键举措之一,就是打造一款代号为“Shallotpeat”的新一代大语言模型。据知情人士透露,该模型的设计目标之一,就是专门修复OpenAI在预训练过程中遇到的种种“疑难杂症”。OpenAI:内部的风向变了GPT-5发布的实质是什么?对现有ChatGPT用户而言,GPT-5是个好消息,但这并未开启新时代。它只是进化历程中的一小步,而非革命性飞跃。既然更多算力通常意味着更强性能,为何OpenAI会反其道而行?这对未来模型发展意味着什么?在与a16z合伙人Martin Casado对话中,OpenAI平台工程负责人Sherwin Wu,深度拆解了OpenAI当前平台架构、定价逻辑与未来方向。在这次访谈中,他们深入探讨了为何开发者往往会长期依赖某个“值得信赖”的模型系列,信任感是如何建立的,以及为什么行业已经逐步放弃了“一个模型通吃所有任务”的幻想。Sherwin还讲解了从提示词工程到上下文设计的演变过程,以及企业如何借助OpenAI的微调(fine-tuning)和RFT API,利用自有数据定制模型行为。共识已变几年前,OpenAI内部认为:未来会有一个“统治一切”的超级模型。但现在行业共识已经转变为“模型的专业化和多样化”。虽然会有强大的通用模型,但也需要针对特定任务(如编程Codex、视频Sora)的专用模型。文本、图像、视频背后的技术堆栈各不同。目前,在后台。这些模型往往是分开优化的独立系统,很难简单地“一锅炖”。顺便提一句,正是DALL-E 2的出现让Sherwin决定加入OpenAI,因为那是他第一次感受到AI的魔力。而微调(Fine-tuning)也悄然进化——早期的微调,主要用于调整“语气”或“指令遵循”。 现在的重头戏,是强化学习微调(Reinforcement Fine-Tuning) 。这允许企业利用其庞大的专有数据(Data Treasure Troves),将较小的模型在特定领域训练至SOTA水平。这是解锁企业数据的关键。也就是说,企业拥有大量内部数据,但与ChatGPT“毫无关系”,对企业专属AI而言却是黄金。他们多次提到AI代码编辑器Cursor作为建立在 OpenAI API 之上的成功产品案例,证明了:即使OpenAI自己有竞品,开发者依然可以建立伟大的垂直应用。Agent开发模式从第一天起,奥特曼和Greg Brockman就确立了“App+ API”的双轨战略。这样做是为了尽可能广泛地分发AGI的利益——如果只做 API,你就无法触达普通消费者;如果只做应用,你就无法赋能各行各业的开发者。在这次对话中,他们重点谈论了智能体开发工具“Agent Builder”。Sherwin认为,智能体(Agent)并非一种全新的模态,而是AI的一种新使用方式。本质上,智能体是一个能够代表用户、在较长的时间跨度(Long Time Horizons)内执行一系列操作并完成任务的AI系统。OpenAI曾推出了可视化的“Agent Builder”(节点式构建),但发现对于开发者而言,这种方式可能过于受限。访谈中,Sherwin和Martin将智能体清晰地划分为两类,这解释了为什么目前市面上的Agent产品形态各异——探索型/非定向工作 (Undirected/Exploratory Work)流程型/SOP导向工作 (Procedural/SOP-oriented Work)在对话中,第二类Agent开发可能更像传统的软件工程或游戏开发中的NPC(非玩家角色)逻辑。与其让模型完全自由发挥,不如通过代码给予它明确的逻辑框架和标准操作程序(SOP),特别是在受监管的行业(如客户支持、金融)。也就是说,逻辑必须写死在代码里,而不是提示词里。这就是Agent Builder想要解决的问题:为那些必须控制智能体行为的行业和场景,提供一个简单、清晰、可验证的解决方案。One More Thing2025年度压轴大戏,谷歌Gemini 3 Pro无疑打了一场胜仗,但OpenAI不会袖手旁观。内部已确认,圣诞节前夕,一连串发布连番轰炸。据传,一系列新模型,在路上了——Image Gen v2IMO和IOI金牌多模态模型GPT-5.2 Codex12月,AI圈一定非常热闹。","news_type":1,"symbols_score_info":{"GOOG":0.9,"GOOGL":0.9}},"isVote":1,"tweetType":1,"viewCount":301,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":502518822609040,"gmtCreate":1763704318186,"gmtModify":1763704320555,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3460684730001752","idStr":"3460684730001752"},"themes":[],"title":"","htmlText":"跌也不是一下子跌完,慢慢磨,期权价值就磨完了","listText":"跌也不是一下子跌完,慢慢磨,期权价值就磨完了","text":"跌也不是一下子跌完,慢慢磨,期权价值就磨完了","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/502518822609040","repostId":"2585195463","repostType":2,"repost":{"id":"2585195463","kind":"news","weMediaInfo":{"introduction":"早报天天读,汇集天下事,做最好听的有声财经播报。","home_visible":1,"media_name":"格隆汇APP","id":"11","head_image":"https://static.tigerbbs.com/d06797dbcc3b4b9e839c351ca5a14e4d"},"pubTimestamp":1763697735,"share":"https://www.laohu8.com/m/news/2585195463?lang=&edition=full","pubTime":"2025-11-21 12:02","market":"us","language":"zh","title":"英伟达财报后走势“诡异”,6100亿美元“AI庞氏骗局”崩盘?","url":"https://stock-news.laohu8.com/highlight/detail?id=2585195463","media":"格隆汇APP","summary":"英伟达未结账款达334亿美元,一年内激增89%。","content":"<html><head></head><body><p>金融市场独立研究员佩雷拉(Shanaka Anslem Perera)发文称,昨日,一场史无前例的剧变发生。 <a href=\"https://laohu8.com/S/NVDA\">英伟达</a> 股价在财报发布后飙升5%,却在18小时内暴跌至负值区间。<strong>华尔街算法捕捉到了人类未能察觉的异常:账面数据存在严重矛盾。</strong></p><p>周五,英伟达夜盘股价短线“跳水”,截至发稿由涨转跌。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2b5f8ac56f4b709a46cfddf48cf18809\" title=\"\" tg-width=\"1161\" tg-height=\"429\"/></p><p><strong>具体发现如下:</strong></p><p><strong>英伟达披露未结账款达334亿美元,一年内激增89%。购买芯片的客户尚未付款,平均付款周期从46天延长至53天。这额外的一周意味着104亿美元可能永远无法收回。</strong>与此同时,英伟达库存积压芯片达198亿美元,三个月内增长32%。但管理层声称需求疯狂而供应受限。两者不可能同时成立。要么客户不愿购买,要么他们空手下单。现金流揭示了真相。英伟达实际产生145亿美元现金,却报告193亿美元利润。两者相差48亿美元。台积电和AMD等健康芯片企业能将95%以上利润转化为现金,英伟达仅能转化75%。这已达危机级别。</p><p>更令人发指的是:英伟达向xAI注资20亿美元,xAI却借贷125亿美元采购英伟达芯片;微软向OpenAI投入130亿美元,OpenAI承诺斥资500亿美元购买微软云服务;微软为该云平台订购价值1000亿美元的英伟达芯片;甲骨文向OpenAI提供3000亿美元云服务额度,OpenAI则为甲骨文数据中心订购英伟达芯片。同一笔资金在不同公司间循环往复,被多次计入营收。英伟达记账销售额,却无人真正付款。账单日益陈旧,库存不断堆积,现金流始终缺席。</p><p>上周AI公司CEO们已亲口承认。爱彼迎CEO称之为“氛围营收”。OpenAI每年烧掉93亿美元却仅赚37亿美元,年亏损达56亿美元。1570亿美元的估值需要3.1万亿美元的未来利润支撑,而麻省理工学院研究表明95%的人工智能项目永远无法实现这种盈利。<br/>硅谷风投教父彼得·蒂尔于11月9日抛售价值1亿美元的英伟达股票。软银集团11月11日抛售58亿美元持股。“大空头”迈克尔·伯里买入看跌期权,押注英伟达股价将在2026年3月前跌至140美元。</p><p>与人工智能投机密切相关的比特币,已从10月的12.6万美元跌至今日的89,567美元,跌幅达29%。人工智能初创企业持有价值268亿美元的比特币作为贷款抵押品。当英伟达股价再跌40%时,这些贷款将违约,迫使抛售230亿美元比特币,导致加密货币崩盘至5.2万美元。</p><p>时间线已然明朗:2026年2月,英伟达公布财报揭露逾期账款规模;2026年3月,评级机构下调信用评级;2026年4月,首次财务重述。这场耗时18个月构筑的骗局,在90天内土崩瓦解。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/fd5f597ba02e9edfaeba010a07aa50e2\" title=\"\" tg-width=\"1248\" tg-height=\"441\"/></p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>英伟达财报后走势“诡异”,6100亿美元“AI庞氏骗局”崩盘?</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n英伟达财报后走势“诡异”,6100亿美元“AI庞氏骗局”崩盘?\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/11\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/d06797dbcc3b4b9e839c351ca5a14e4d);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">格隆汇APP </p>\n<p class=\"h-time\">2025-11-21 12:02</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>金融市场独立研究员佩雷拉(Shanaka Anslem Perera)发文称,昨日,一场史无前例的剧变发生。 <a href=\"https://laohu8.com/S/NVDA\">英伟达</a> 股价在财报发布后飙升5%,却在18小时内暴跌至负值区间。<strong>华尔街算法捕捉到了人类未能察觉的异常:账面数据存在严重矛盾。</strong></p><p>周五,英伟达夜盘股价短线“跳水”,截至发稿由涨转跌。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2b5f8ac56f4b709a46cfddf48cf18809\" title=\"\" tg-width=\"1161\" tg-height=\"429\"/></p><p><strong>具体发现如下:</strong></p><p><strong>英伟达披露未结账款达334亿美元,一年内激增89%。购买芯片的客户尚未付款,平均付款周期从46天延长至53天。这额外的一周意味着104亿美元可能永远无法收回。</strong>与此同时,英伟达库存积压芯片达198亿美元,三个月内增长32%。但管理层声称需求疯狂而供应受限。两者不可能同时成立。要么客户不愿购买,要么他们空手下单。现金流揭示了真相。英伟达实际产生145亿美元现金,却报告193亿美元利润。两者相差48亿美元。台积电和AMD等健康芯片企业能将95%以上利润转化为现金,英伟达仅能转化75%。这已达危机级别。</p><p>更令人发指的是:英伟达向xAI注资20亿美元,xAI却借贷125亿美元采购英伟达芯片;微软向OpenAI投入130亿美元,OpenAI承诺斥资500亿美元购买微软云服务;微软为该云平台订购价值1000亿美元的英伟达芯片;甲骨文向OpenAI提供3000亿美元云服务额度,OpenAI则为甲骨文数据中心订购英伟达芯片。同一笔资金在不同公司间循环往复,被多次计入营收。英伟达记账销售额,却无人真正付款。账单日益陈旧,库存不断堆积,现金流始终缺席。</p><p>上周AI公司CEO们已亲口承认。爱彼迎CEO称之为“氛围营收”。OpenAI每年烧掉93亿美元却仅赚37亿美元,年亏损达56亿美元。1570亿美元的估值需要3.1万亿美元的未来利润支撑,而麻省理工学院研究表明95%的人工智能项目永远无法实现这种盈利。<br/>硅谷风投教父彼得·蒂尔于11月9日抛售价值1亿美元的英伟达股票。软银集团11月11日抛售58亿美元持股。“大空头”迈克尔·伯里买入看跌期权,押注英伟达股价将在2026年3月前跌至140美元。</p><p>与人工智能投机密切相关的比特币,已从10月的12.6万美元跌至今日的89,567美元,跌幅达29%。人工智能初创企业持有价值268亿美元的比特币作为贷款抵押品。当英伟达股价再跌40%时,这些贷款将违约,迫使抛售230亿美元比特币,导致加密货币崩盘至5.2万美元。</p><p>时间线已然明朗:2026年2月,英伟达公布财报揭露逾期账款规模;2026年3月,评级机构下调信用评级;2026年4月,首次财务重述。这场耗时18个月构筑的骗局,在90天内土崩瓦解。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/fd5f597ba02e9edfaeba010a07aa50e2\" title=\"\" tg-width=\"1248\" tg-height=\"441\"/></p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/7308276753c5ff6ceaac8e2cceebffd3","relate_stocks":{"NVDA":"英伟达"},"source_url":"http://gu.qq.com/resources/shy/news/detail-v2/index.html#/?id=nesSN20251121120511a4b0a566&s=b","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2585195463","content_text":"金融市场独立研究员佩雷拉(Shanaka Anslem Perera)发文称,昨日,一场史无前例的剧变发生。 英伟达 股价在财报发布后飙升5%,却在18小时内暴跌至负值区间。华尔街算法捕捉到了人类未能察觉的异常:账面数据存在严重矛盾。周五,英伟达夜盘股价短线“跳水”,截至发稿由涨转跌。具体发现如下:英伟达披露未结账款达334亿美元,一年内激增89%。购买芯片的客户尚未付款,平均付款周期从46天延长至53天。这额外的一周意味着104亿美元可能永远无法收回。与此同时,英伟达库存积压芯片达198亿美元,三个月内增长32%。但管理层声称需求疯狂而供应受限。两者不可能同时成立。要么客户不愿购买,要么他们空手下单。现金流揭示了真相。英伟达实际产生145亿美元现金,却报告193亿美元利润。两者相差48亿美元。台积电和AMD等健康芯片企业能将95%以上利润转化为现金,英伟达仅能转化75%。这已达危机级别。更令人发指的是:英伟达向xAI注资20亿美元,xAI却借贷125亿美元采购英伟达芯片;微软向OpenAI投入130亿美元,OpenAI承诺斥资500亿美元购买微软云服务;微软为该云平台订购价值1000亿美元的英伟达芯片;甲骨文向OpenAI提供3000亿美元云服务额度,OpenAI则为甲骨文数据中心订购英伟达芯片。同一笔资金在不同公司间循环往复,被多次计入营收。英伟达记账销售额,却无人真正付款。账单日益陈旧,库存不断堆积,现金流始终缺席。上周AI公司CEO们已亲口承认。爱彼迎CEO称之为“氛围营收”。OpenAI每年烧掉93亿美元却仅赚37亿美元,年亏损达56亿美元。1570亿美元的估值需要3.1万亿美元的未来利润支撑,而麻省理工学院研究表明95%的人工智能项目永远无法实现这种盈利。硅谷风投教父彼得·蒂尔于11月9日抛售价值1亿美元的英伟达股票。软银集团11月11日抛售58亿美元持股。“大空头”迈克尔·伯里买入看跌期权,押注英伟达股价将在2026年3月前跌至140美元。与人工智能投机密切相关的比特币,已从10月的12.6万美元跌至今日的89,567美元,跌幅达29%。人工智能初创企业持有价值268亿美元的比特币作为贷款抵押品。当英伟达股价再跌40%时,这些贷款将违约,迫使抛售230亿美元比特币,导致加密货币崩盘至5.2万美元。时间线已然明朗:2026年2月,英伟达公布财报揭露逾期账款规模;2026年3月,评级机构下调信用评级;2026年4月,首次财务重述。这场耗时18个月构筑的骗局,在90天内土崩瓦解。","news_type":1,"symbols_score_info":{"NVDA":2}},"isVote":1,"tweetType":1,"viewCount":228,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":270599,"gmtCreate":1537276184154,"gmtModify":1704773902120,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3460684730001752","idStr":"3460684730001752"},"themes":[],"htmlText":"$Tilray Inc.(TLRY)$ 这是今年最妖的股了","listText":"$Tilray Inc.(TLRY)$ 这是今年最妖的股了","text":"$Tilray Inc.(TLRY)$ 这是今年最妖的股了","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/270599","isVote":1,"tweetType":1,"viewCount":2876,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":359108911050768,"gmtCreate":1728713555800,"gmtModify":1728713558117,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3460684730001752","idStr":"3460684730001752"},"themes":[],"htmlText":"逢低买入,牛市见顶还早呢!","listText":"逢低买入,牛市见顶还早呢!","text":"逢低买入,牛市见顶还早呢!","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/359108911050768","isVote":1,"tweetType":1,"viewCount":2280,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":265950,"gmtCreate":1536848951344,"gmtModify":1704773306476,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3460684730001752","idStr":"3460684730001752"},"themes":[],"htmlText":"$Facebook(FB)$ 小扎你能不能好好的?","listText":"$Facebook(FB)$ 小扎你能不能好好的?","text":"$Facebook(FB)$ 小扎你能不能好好的?","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/265950","isVote":1,"tweetType":1,"viewCount":2498,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":265944,"gmtCreate":1536848853732,"gmtModify":1704773306118,"author":{"id":"3460684730001752","authorId":"3460684730001752","name":"JQCapital","avatar":"https://static.tigerbbs.com/7d2bbf728af24cb78de1baf977c4a5e7","crmLevel":7,"crmLevelSwitch":1,"followedFlag":false,"authorIdStr":"3460684730001752","idStr":"3460684730001752"},"themes":[],"htmlText":"$Facebook(FB)$ 所有股票都涨,就你在跌!!","listText":"$Facebook(FB)$ 所有股票都涨,就你在跌!!","text":"$Facebook(FB)$ 所有股票都涨,就你在跌!!","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/265944","isVote":1,"tweetType":1,"viewCount":2786,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0}],"lives":[]}