社区
首页
集团介绍
社区
资讯
行情
学堂
TigerAI
登录
注册
寂寞的演奏家
不负每一份热爱
IP属地:山东
+关注
帖子 · 478
帖子 · 478
关注 · 0
关注 · 0
粉丝 · 0
粉丝 · 0
寂寞的演奏家
寂寞的演奏家
·
12-06 23:17
哈哈哈
英伟达推出CUDA 13.1 与 CUDA Tile,黄仁勋称是20年来最大进步
CUDA Tile 在 Python 中也有可用版本。
英伟达推出CUDA 13.1 与 CUDA Tile,黄仁勋称是20年来最大进步
看
1
回复
评论
点赞
1
编组 21备份 2
分享
举报
寂寞的演奏家
寂寞的演奏家
·
12-02
$苹果(AAPL)$
AI能力和隐私保护天生就是背道而驰的, 苹果正在做一件两边都不讨好的事情。还那这个开了发布会,那就是基于大模型的隐私保护。。。。。。 如果明年siri还是一坨屎,那苹果就彻底歇菜了
看
391
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
寂寞的演奏家
寂寞的演奏家
·
12-01
$甲骨文(ORCL)$
我put要是没卖现在已经提车了
看
271
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
寂寞的演奏家
寂寞的演奏家
·
12-01
哪有那么不堪,标题这么劲爆我以为有实锤,结果只是据传说。小心律师函
OpenAI大溃败!GPT-5“换皮”GPT-4o,两年半预训练0突破
OpenAI核心预训练,接连翻车?传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被OpenAI放弃了!在前沿模型预训练上,OpenAI的研发似乎陷入了僵局——如今第五代旗舰模型GPT-5,包括最新GPT-5.1,其“技术根基”本质或仍未突破GPT-4o的范畴。然而,OpenAI的Orion大规模预训练,却打破了这一常规,其训练时间超过了3个月。但至于GPT-5真正基于哪一款GPT打造,还有待证实。OpenAI主动放弃了这一范式,为劲敌让出了一条速通道。
OpenAI大溃败!GPT-5“换皮”GPT-4o,两年半预训练0突破
看
214
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
寂寞的演奏家
寂寞的演奏家
·
11-25
还能打对折? 还有对折的空间吗???
特斯拉盘初跌超2%,10月在欧洲销量同比减少48.5%
市场份额从1.3%降至0.6%。
特斯拉盘初跌超2%,10月在欧洲销量同比减少48.5%
看
203
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
寂寞的演奏家
寂寞的演奏家
·
11-25
$蔚来(NIO)$
这公司还活着就是奇迹
看
122
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
寂寞的演奏家
寂寞的演奏家
·
11-25
$美国超微公司(AMD)$
AMD这波要没了。干了这么多年,不如谷歌一天
看
367
回复
评论
点赞
1
编组 21备份 2
分享
举报
寂寞的演奏家
寂寞的演奏家
·
11-25
$英伟达(NVDA)$
最尴尬的是AMD,跟NVDA干了这么多年,最后让Google给摘了果子
看
3,346
回复
6
点赞
5
编组 21备份 2
分享
举报
寂寞的演奏家
寂寞的演奏家
·
11-25
$谷歌(GOOG)$
要回调
看
156
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
寂寞的演奏家
寂寞的演奏家
·
11-24
$诺和诺德(NVO)$
我跟你们看法不同,这恰恰证明了NVO身陷绝境, 这种消息看似影响不大,实则是市场对NVO的预期从减肥大佬变成了希望它能治疗痴呆症。。。。 根本问题还产品太垂直,并且按照临床试验的要求,产品更新迭代速度太慢。 公司前途很危险,除非礼来等公司傻到送人头。
看
5,400
回复
5
点赞
3
编组 21备份 2
分享
举报
加载更多
暂无关注
热议股票
{"i18n":{"language":"zh_CN"},"isCurrentUser":false,"userPageInfo":{"id":"3495002759494258","uuid":"3495002759494258","gmtCreate":1531908738129,"gmtModify":1747929483445,"name":"寂寞的演奏家","pinyin":"jmdyzjjimodeyanzoujia","introduction":"","introductionEn":"","signature":"不负每一份热爱","avatar":"https://static.tigerbbs.com/9027c93e57bb45c8170d7860486ffda7","hat":null,"hatId":null,"hatName":null,"vip":1,"status":2,"fanSize":537,"headSize":45,"tweetSize":478,"questionSize":0,"limitLevel":900,"accountStatus":4,"level":{"id":3,"name":"书生虎","nameTw":"書生虎","represent":"努力向上","factor":"发布10条非转发主帖,其中5条获得他人回复或点赞","iconColor":"3C9E83","bgColor":"A2F1D9"},"themeCounts":0,"badgeCounts":0,"badges":[],"moderator":false,"superModerator":false,"manageSymbols":null,"badgeLevel":null,"boolIsFan":false,"boolIsHead":false,"favoriteSize":1,"symbols":null,"coverImage":null,"realNameVerified":null,"userBadges":[{"badgeId":"35ec162348d5460f88c959321e554969-3","templateUuid":"35ec162348d5460f88c959321e554969","name":"传说交易员","description":"证券或期货账户累计交易次数达到300次","bigImgUrl":"https://static.tigerbbs.com/656db16598a0b8f21429e10d6c1cb033","smallImgUrl":"https://static.tigerbbs.com/03f10910d4dd9234f9b5702a3342193a","grayImgUrl":"https://static.tigerbbs.com/0c767e35268feb729d50d3fa9a386c5a","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":1,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2025.03.23","exceedPercentage":"93.90%","individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100},{"badgeId":"228c86a078844d74991fff2b7ab2428d-2","templateUuid":"228c86a078844d74991fff2b7ab2428d","name":"投资总监虎","description":"证券账户累计交易金额达到30万美元","bigImgUrl":"https://static.tigerbbs.com/9d20b23f1b6335407f882bc5c2ad12c0","smallImgUrl":"https://static.tigerbbs.com/ada3b4533518ace8404a3f6dd192bd29","grayImgUrl":"https://static.tigerbbs.com/177f283ba21d1c077054dac07f88f3bd","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2024.11.05","exceedPercentage":"80.98%","individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1101},{"badgeId":"e50ce593bb40487ebfb542ca54f6a561-4","templateUuid":"e50ce593bb40487ebfb542ca54f6a561","name":"明星虎友","description":"加入老虎社区2000天","bigImgUrl":"https://static.tigerbbs.com/dddf24b906c7011de2617d4fb3f76987","smallImgUrl":"https://static.tigerbbs.com/53d58ad32c97254c6f74db8b97e6ec49","grayImgUrl":"https://static.tigerbbs.com/6304700d92ad91c7a33e2e92ec32ecc1","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2024.01.09","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1001},{"badgeId":"02aa7f16703b4ce4ace6f1a7665789cc-1","templateUuid":"02aa7f16703b4ce4ace6f1a7665789cc","name":"知识体验官","description":"观看学堂课程满5节","bigImgUrl":"https://static.tigerbbs.com/fb5ae275631fb96a92d475cdc85d2302","smallImgUrl":"https://static.tigerbbs.com/c2660a1935bd2105e97c9915619936c3","grayImgUrl":null,"redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2022.08.05","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":2006},{"badgeId":"976c19eed35f4cd78f17501c2e99ef37-1","templateUuid":"976c19eed35f4cd78f17501c2e99ef37","name":"博闻投资者","description":"累计交易超过10只正股","bigImgUrl":"https://static.tigerbbs.com/e74cc24115c4fbae6154ec1b1041bf47","smallImgUrl":"https://static.tigerbbs.com/d48265cbfd97c57f9048db29f22227b0","grayImgUrl":"https://static.tigerbbs.com/76c6d6898b073c77e1c537ebe9ac1c57","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1102},{"badgeId":"518b5610c3e8410da5cfad115e4b0f5a-1","templateUuid":"518b5610c3e8410da5cfad115e4b0f5a","name":"实盘交易者","description":"完成一笔实盘交易","bigImgUrl":"https://static.tigerbbs.com/2e08a1cc2087a1de93402c2c290fa65b","smallImgUrl":"https://static.tigerbbs.com/4504a6397ce1137932d56e5f4ce27166","grayImgUrl":"https://static.tigerbbs.com/4b22c79415b4cd6e3d8ebc4a0fa32604","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100}],"userBadgeCount":6,"currentWearingBadge":{"badgeId":"35ec162348d5460f88c959321e554969-3","templateUuid":"35ec162348d5460f88c959321e554969","name":"传说交易员","description":"证券或期货账户累计交易次数达到300次","bigImgUrl":"https://static.tigerbbs.com/656db16598a0b8f21429e10d6c1cb033","smallImgUrl":"https://static.tigerbbs.com/03f10910d4dd9234f9b5702a3342193a","grayImgUrl":"https://static.tigerbbs.com/0c767e35268feb729d50d3fa9a386c5a","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":1,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2025.03.23","exceedPercentage":"93.65%","individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100},"individualDisplayBadges":null,"crmLevel":1,"crmLevelSwitch":0,"location":"山东","starInvestorFollowerNum":0,"starInvestorFlag":false,"starInvestorOrderShareNum":0,"subscribeStarInvestorNum":0,"ror":null,"winRationPercentage":null,"showRor":false,"investmentPhilosophy":null,"starInvestorSubscribeFlag":false},"page":1,"watchlist":null,"tweetList":[{"id":508141738430680,"gmtCreate":1765034269316,"gmtModify":1765034272080,"author":{"id":"3495002759494258","authorId":"3495002759494258","name":"寂寞的演奏家","avatar":"https://static.tigerbbs.com/9027c93e57bb45c8170d7860486ffda7","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3495002759494258","idStr":"3495002759494258"},"themes":[],"title":"","htmlText":"哈哈哈","listText":"哈哈哈","text":"哈哈哈","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/508141738430680","repostId":"1103201473","repostType":4,"repost":{"id":"1103201473","kind":"news","pubTimestamp":1764998281,"share":"https://www.laohu8.com/m/news/1103201473?lang=&edition=full","pubTime":"2025-12-06 13:18","market":"us","language":"zh","title":"英伟达推出CUDA 13.1 与 CUDA Tile,黄仁勋称是20年来最大进步","url":"https://stock-news.laohu8.com/highlight/detail?id=1103201473","media":"智通财经","summary":"CUDA Tile 在 Python 中也有可用版本。","content":"<html><head></head><body><p><a href=\"https://laohu8.com/S/NVDA\">英伟达</a> 推出了 CUDA 13.1 和 CUDA Tile,该公司CEO黄仁勋表示这是该平台自约 20 年前推出以来所取得的最大进步。英伟达工程师Jonathan Bentz与Tony Scudiero在一篇博客文章中表示:“这一令人兴奋的创新引入了一套针对基于模块的并行编程的虚拟指令集,重点在于能够以更高的层次编写算法,并将诸如张量核心等专用硬件的细节抽象出来。”</p><p style=\"text-align: justify;\">CUDA 是由英伟达公司开发的一种并行计算平台及编程模型。它能够帮助开发者利用图形处理单元的强大计算能力来提升应用程序的运行速度。新的基于图元的编程选项使开发人员能够“精细地控制”其代码的执行方式,尤其是在涉及多种 GPU 架构的情况下。</p><p style=\"text-align: justify;\">英伟达工程师指出:“基于图块的编程允许您通过指定数据块(即图块)来编写算法,然后定义对这些图块执行的计算操作。您无需在逐元素级别设置算法的执行方式:编译器和运行时会为您处理好这一切。”</p><p style=\"text-align: justify;\">CUDA Tile 在 Python 中也有可用版本。英伟达计划在未来某个时候发布与 C++ 兼容的版本。英伟达CUDA 架构师Stephen Jones说道:“它刚刚在 Python 中得以实现,我认为这与人工智能开发框架的结合非常完美。我们有意将 CUDA Tile 前沿语言作为开源项目进行发布。”</p></body></html>","source":"highlight_zhitongcaijin","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>英伟达推出CUDA 13.1 与 CUDA Tile,黄仁勋称是20年来最大进步</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n英伟达推出CUDA 13.1 与 CUDA Tile,黄仁勋称是20年来最大进步\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-12-06 13:18 北京时间 <a href=https://www.zhitongcaijing.com/content/detail/1378442.html><strong>智通财经</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>英伟达 推出了 CUDA 13.1 和 CUDA Tile,该公司CEO黄仁勋表示这是该平台自约 20 年前推出以来所取得的最大进步。英伟达工程师Jonathan Bentz与Tony Scudiero在一篇博客文章中表示:“这一令人兴奋的创新引入了一套针对基于模块的并行编程的虚拟指令集,重点在于能够以更高的层次编写算法,并将诸如张量核心等专用硬件的细节抽象出来。”CUDA 是由英伟达公司开发的...</p>\n\n<a href=\"https://www.zhitongcaijing.com/content/detail/1378442.html\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/a38a835ce9ea3fa9ab9da16c7b07b17e","relate_stocks":{"NVDA":"英伟达"},"source_url":"https://www.zhitongcaijing.com/content/detail/1378442.html","is_english":false,"share_image_url":"https://static.laohu8.com/6ca2dcdccfa2217fb20a0351f4efe814","article_id":"1103201473","content_text":"英伟达 推出了 CUDA 13.1 和 CUDA Tile,该公司CEO黄仁勋表示这是该平台自约 20 年前推出以来所取得的最大进步。英伟达工程师Jonathan Bentz与Tony Scudiero在一篇博客文章中表示:“这一令人兴奋的创新引入了一套针对基于模块的并行编程的虚拟指令集,重点在于能够以更高的层次编写算法,并将诸如张量核心等专用硬件的细节抽象出来。”CUDA 是由英伟达公司开发的一种并行计算平台及编程模型。它能够帮助开发者利用图形处理单元的强大计算能力来提升应用程序的运行速度。新的基于图元的编程选项使开发人员能够“精细地控制”其代码的执行方式,尤其是在涉及多种 GPU 架构的情况下。英伟达工程师指出:“基于图块的编程允许您通过指定数据块(即图块)来编写算法,然后定义对这些图块执行的计算操作。您无需在逐元素级别设置算法的执行方式:编译器和运行时会为您处理好这一切。”CUDA Tile 在 Python 中也有可用版本。英伟达计划在未来某个时候发布与 C++ 兼容的版本。英伟达CUDA 架构师Stephen Jones说道:“它刚刚在 Python 中得以实现,我认为这与人工智能开发框架的结合非常完美。我们有意将 CUDA Tile 前沿语言作为开源项目进行发布。”","news_type":1,"symbols_score_info":{"NVDA":2}},"isVote":1,"tweetType":1,"viewCount":1,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":506161545683344,"gmtCreate":1764605195193,"gmtModify":1764606606955,"author":{"id":"3495002759494258","authorId":"3495002759494258","name":"寂寞的演奏家","avatar":"https://static.tigerbbs.com/9027c93e57bb45c8170d7860486ffda7","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3495002759494258","idStr":"3495002759494258"},"themes":[],"title":"","htmlText":"<a href=\"https://laohu8.com/S/AAPL\">$苹果(AAPL)$ </a>AI能力和隐私保护天生就是背道而驰的, 苹果正在做一件两边都不讨好的事情。还那这个开了发布会,那就是基于大模型的隐私保护。。。。。。 如果明年siri还是一坨屎,那苹果就彻底歇菜了","listText":"<a href=\"https://laohu8.com/S/AAPL\">$苹果(AAPL)$ </a>AI能力和隐私保护天生就是背道而驰的, 苹果正在做一件两边都不讨好的事情。还那这个开了发布会,那就是基于大模型的隐私保护。。。。。。 如果明年siri还是一坨屎,那苹果就彻底歇菜了","text":"$苹果(AAPL)$ AI能力和隐私保护天生就是背道而驰的, 苹果正在做一件两边都不讨好的事情。还那这个开了发布会,那就是基于大模型的隐私保护。。。。。。 如果明年siri还是一坨屎,那苹果就彻底歇菜了","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/506161545683344","isVote":1,"tweetType":1,"viewCount":391,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":506139389506336,"gmtCreate":1764599800838,"gmtModify":1764599802907,"author":{"id":"3495002759494258","authorId":"3495002759494258","name":"寂寞的演奏家","avatar":"https://static.tigerbbs.com/9027c93e57bb45c8170d7860486ffda7","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3495002759494258","idStr":"3495002759494258"},"themes":[],"title":"","htmlText":"<a href=\"https://laohu8.com/S/ORCL\">$甲骨文(ORCL)$ </a>我put要是没卖现在已经提车了","listText":"<a href=\"https://laohu8.com/S/ORCL\">$甲骨文(ORCL)$ </a>我put要是没卖现在已经提车了","text":"$甲骨文(ORCL)$ 我put要是没卖现在已经提车了","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/506139389506336","isVote":1,"tweetType":1,"viewCount":271,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":505873420173704,"gmtCreate":1764528663339,"gmtModify":1764528666036,"author":{"id":"3495002759494258","authorId":"3495002759494258","name":"寂寞的演奏家","avatar":"https://static.tigerbbs.com/9027c93e57bb45c8170d7860486ffda7","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3495002759494258","idStr":"3495002759494258"},"themes":[],"title":"","htmlText":"哪有那么不堪,标题这么劲爆我以为有实锤,结果只是据传说。小心律师函","listText":"哪有那么不堪,标题这么劲爆我以为有实锤,结果只是据传说。小心律师函","text":"哪有那么不堪,标题这么劲爆我以为有实锤,结果只是据传说。小心律师函","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/505873420173704","repostId":"2587795167","repostType":4,"repost":{"id":"2587795167","kind":"news","pubTimestamp":1764485625,"share":"https://www.laohu8.com/m/news/2587795167?lang=&edition=full","pubTime":"2025-11-30 14:53","market":"us","language":"zh","title":"OpenAI大溃败!GPT-5“换皮”GPT-4o,两年半预训练0突破","url":"https://stock-news.laohu8.com/highlight/detail?id=2587795167","media":"新智元","summary":"OpenAI核心预训练,接连翻车?传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被OpenAI放弃了!在前沿模型预训练上,OpenAI的研发似乎陷入了僵局——如今第五代旗舰模型GPT-5,包括最新GPT-5.1,其“技术根基”本质或仍未突破GPT-4o的范畴。然而,OpenAI的Orion大规模预训练,却打破了这一常规,其训练时间超过了3个月。但至于GPT-5真正基于哪一款GPT打造,还有待证实。OpenAI主动放弃了这一范式,为劲敌让出了一条速通道。","content":"<html><head></head><body><blockquote><p>OpenAI被曝陷入严重技术停滞——其最新发布的GPT-5实质仍是基于GPT-4o架构的优化版本,自2022年GPT-4发布后长达两年半期间未能实现预训练技术的实质性突破。与此同时,谷歌凭借TPUv7在预训练领域突飞猛进,迫使OpenAI紧急启动新模型研发计划以应对技术落后危机。</p></blockquote><p>OpenAI核心预训练,接连翻车?</p><p>传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被OpenAI放弃了!</p><p>这么说并非空穴来风,核心爆料恰恰来自权威SemiAnalysis的最新一文——</p><p>OpenAI顶尖团队自GPT-4o发布之后,迄今尚未完成一次完整的,为下一代前沿模型设计的大规模预训练。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/17b01384fdead3e442ce6446294fcca2\" title=\"\" tg-width=\"1024\" tg-height=\"1317\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/48a85ba896dc71539eae0ffe7640c8fd\" title=\"\" tg-width=\"1024\" tg-height=\"163\"/></p><p>文章中,高级分析师强调:<a href=\"https://laohu8.com/S/GOOG\">谷歌</a>正手持TPUv7这把利剑,向<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>王座发起冲锋,或将终结CUDA护城河。</p><p>众所周知,OpenAI全栈模型是在纯英伟达GPU上炼出的。</p><p>然而,圈内人的焦点,大都放在了大模型“推理”和“后训练”的硬件之上。</p><p>殊不知,没有前沿模型的预训练,一切皆是“无米之炊”。恰恰这一环节,成为了AI硬件里最难、最耗资源的一关。</p><p>如今,一个不为人知的内幕爆出了:</p><p>事实证明,<a href=\"https://laohu8.com/S/GOOGL\">谷歌</a>TPU彻底经受住了这一考验;</p><p>相较之下,自2024年5月GPT-4o诞生之后,OpenAI的预训练却毫无进展.....</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/96925999a2f079cdc34c93805d99a3ec\" title=\"\" tg-width=\"1024\" tg-height=\"284\"/></p><p>过去,两年半的时间,OpenAI没有真正Scaling预训练的规模。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/02adb07ec4500dfb06d8f57e9a419fc0\" title=\"\" tg-width=\"1024\" tg-height=\"682\"/></p><p>GPT的预训练,或许在GPT-4o之后触及了天花板,由此也解释了GPT-5性能未达业界预期的关键原因。</p><p>有网友表示,那不正是Ilya离开的时候吗.....</p><p>恰在昨天,Ilya最新发文称,Scaling不会停,但某个重要的东西仍然会缺失。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/7332362c7b866ea1b461ba37aa58e2b9\" title=\"\" tg-width=\"1024\" tg-height=\"153\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4a4cc533e69b244512a4aa8458b68b1b\" title=\"\" tg-width=\"1024\" tg-height=\"420\"/></p><p><strong>OpenAI预训练,大溃败</strong></p><p>还记得去年底,那场铺天盖地的“Orion”传闻吗?</p><p>这一秘密项目,原定以GPT-5面世,但因训练未达预期,最终被降级为GPT-4.5发布。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0a7e9650c9b0c237429ef77db04b2410\" title=\"\" tg-width=\"1024\" tg-height=\"350\"/></p><p>在前沿模型预训练上,OpenAI的研发似乎陷入了僵局——</p><p>如今第五代旗舰模型GPT-5,包括最新GPT-5.1,其“技术根基”本质或仍未突破GPT-4o的范畴。</p><p>SemiAnalysis去年底一篇文章,曾对外公开了Orion训练的困境。</p><p>当前,算法的进步使得模型每年所需的物理计算量减少约三分之一,因此,训练运行时间很少超过3个月。</p><p>甚至,行业中大多数预训练通常仅需要1-2个月。</p><p>然而,OpenAI的Orion大规模预训练,却打破了这一常规,其训练时间超过了3个月。</p><p>另据Information同一时间爆出,Orion不会像前代实现巨大的飞跃,相较于从GPT-3到GPT-4的迭代,改进幅度要小得多。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/1286f5442a0b9b02f8d2b0c7628caa7f\" title=\"\" tg-width=\"1024\" tg-height=\"306\"/></p><p>不仅如此,Orion性能提升也基本局限在——语言能力上,其代码能力甚至不如旧模型,且成本更高。</p><p>如今再回看2月,GPT-4.5的诞生,基于代号Orion的模型,OpenAI追求的是:</p><p>更强的语言能力+更稳的对话体验+更大知识库</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4db88e04bca5ddff4684dcf0281db961\" title=\"\" tg-width=\"862\" tg-height=\"190\"/></p><p>情商,成为了GPT-4.5的关键词。代码虽有提升,但并非主菜。</p><p>这一切的一切,从侧面印证了,此前外媒关于“Orion遇挫”爆料的准确性——</p><p><strong>LLM有提升,但不大。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6921884c3cb5ce3f00bafde300764e6c\" title=\"\" tg-width=\"1024\" tg-height=\"660\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a5b88a4b3e7a3c48111d7ed25362dabf\" title=\"\" tg-width=\"292\" tg-height=\"73\"/></p><p><strong>GPT-4o,成Scaling主线?</strong></p><p>今年8月,GPT-5的那场发布,奥特曼将其定调为“博士级AI,是通往AGI又一里程碑”。</p><p>实则,业界对于GPT-5的反响,唏嘘一片。</p><p>大家原本以为,GPT-5会是全面超越前代的一次飞跃,但实际发布后,更像是GPT-4.5的进一步优化版,不是“颠覆版”。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/877c420235c2765936cefa6b68976418\" title=\"\" tg-width=\"1024\" tg-height=\"261\"/></p><p>但至于GPT-5真正基于哪一款GPT打造,还有待证实。</p><p>正如之前传闻的猜测,有可能是GPT-4o,还有<a href=\"https://laohu8.com/S/RDDT\">Reddit</a>网友称是GPT-4.1....</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/519913614c83d5cfd2e45812c5779712\" title=\"\" tg-width=\"1024\" tg-height=\"310\"/></p><p>但不论是哪一款,都证明了GPT-5,没有在全新前沿模型的大规模预训练上淬炼。</p><p>搞笑的,那个曾将OpenAI三颗????????????“焊在”名字中的大佬,如今改成了三个????????????。</p><p>他表示,这已经不是什么秘密了——</p><p>GPT-4.5将预训练推向极致之后,OpenAI加倍投入了推理范式,主打o系列+RL。</p><p>不同的是,谷歌和Anthropic仍在Scaling预训练,并增强了强化学习。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/723129e431e6721ce0dc4559751fb026\" title=\"\" tg-width=\"1024\" tg-height=\"757\"/></p><p>OpenAI主动放弃了这一范式,为劲敌让出了一条速通道。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c3e200950fd36f1cb9ff7b28189c45c9\" title=\"\" tg-width=\"1024\" tg-height=\"193\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/1704e104ceef163448365c26ab87c150\" title=\"\" tg-width=\"1024\" tg-height=\"156\"/></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/612407691c118a53eda673fc15662d7f\" title=\"\" tg-width=\"1024\" tg-height=\"353\"/></p><p><strong>奥特曼:这事儿瞒不住了!</strong></p><p>Gemini 3发布后,谷歌和OpenAI攻守之势易形——</p><p>Gemini 3来势汹汹,而OpenAI这次终于坐不住了!</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/2513583f1a36406cc833dbd45d5f1b06\" title=\"\" tg-width=\"1024\" tg-height=\"455\"/></p><p>据泄露的内部备忘录,奥特曼坦言:“近期, 从各方面来看,谷歌在大语言模型表现出色”,特别是预训练。</p><p>这番表态标志OpenAI的重大转变——它终于承认,一个重新崛起的竞争对手与逐渐降温的企业需求,已彻底打破了其“天下无敌”的光环。</p><p>所谓预训练,是训练生成式AI模型(无论是文本还是图像)过程中的第一阶段。在这一阶段,研究人员会用网页等大量数据“投喂”模型,让它掌握数据之间的各种关联。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/67af68aad0c888ff9a44df3ff97dc271\" title=\"\" tg-width=\"1024\" tg-height=\"351\"/></p><p>大语言模型(LLM)开发与训练流程概述:预训练和后训练是关键</p><p>在预训练领域,谷歌取得了新突破,给Gemini 3带来了空前的推理深度。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e8cfd09777725c8ba9c83e359f71534b\" title=\"\" tg-width=\"1024\" tg-height=\"935\"/></p><p>这让不少AI研究者颇感意外——</p><p>毕竟,OpenAI去年曾屡屡碰壁,而谷歌自己过去也曾陷入瓶颈。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/cb2d39f20abcbf0ca8a09b75fe93e7d6\" title=\"\" tg-width=\"1024\" tg-height=\"738\"/></p><p>正因如此,在一段时间内,OpenAI选择将更多精力转向另一种新型AI架构——“推理模型”,这种模型虽然计算量更大,但有望输出更优质的回答。</p><p>在推出GPT-5之前,OpenAI团队曾尝试对预训练阶段做出一系列调整,这些方法在小模型上有效,一旦模型变大就失效了。</p><p>GPT-5发布第二天,西班牙与波兰Talan公司AI应用负责人Javier Alba de Alba表示:</p><p>(GPT-5)整体观感颇为失望:</p><p>这是个优秀的模型——响应迅捷、价格亲民、能力全面,但远非人们基于OpenAI过往发布会所预期的代际飞跃。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/733e8aa6a1de749e77b4ae2d5fc36241\" title=\"\" tg-width=\"1024\" tg-height=\"347\"/></p><p>GPT-5带来了不少提升——</p><p>编程能力显著提升、推理能力进阶、幻觉现象减少、医疗领域表现优化,甚至免费用户也享有更长的默认使用时长。此外命名体系全面简化:GPT-4o/4.1/turbo/mini等繁杂名称悉数消失,统一更名为GPT-5。</p><p>不过,Javier Alba de Alba提醒:“千万不要被名称迷惑:GPT-5并非新一代产品。”他解释道:</p><p>技术层面而言,它更像是GPT-4o的功能增强版,即便命名为GPT-4.2也毫不违和。</p><p>OpenAI此举虽完成了必要的名称统一,但整场发布会未能达到预期,让技术社区颇感失落。</p><p>GPT-5发布后,Epoch AI也发现了其中的异常:</p><p>相比前代GPT-4.5,GPT-5很可能消耗了更少的训练算力。</p><p>虽然具体数值尚未公开,但GPT-4.5使用的训练算力极有可能超过GPT-5。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d718b394a2db766bce08136b6bc7820a\" title=\"\" tg-width=\"1024\" tg-height=\"768\"/></p><p>预训练并未消亡,它依然是胜负关键。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/03ccaae7cb8157d43abeb1c182f453f6\" title=\"\" tg-width=\"1024\" tg-height=\"4357\"/></p><p>在内部会议中,奥特曼鼓舞士气,称在未来几个月,OpenAI将重新夺回优势。其中关键举措之一,就是打造一款代号为“Shallotpeat”的新一代大语言模型。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/426ef21c21851844e4005686c5f0d509\" title=\"\" tg-width=\"1024\" tg-height=\"656\"/></p><p>据知情人士透露,该模型的设计目标之一,就是专门修复OpenAI在预训练过程中遇到的种种“疑难杂症”。</p><p><strong>OpenAI:内部的风向变了</strong></p><p>GPT-5发布的实质是什么?</p><p>对现有ChatGPT用户而言,GPT-5是个好消息,但这并未开启<a href=\"https://laohu8.com/S/00166\">新时代</a>。</p><p>它只是进化历程中的一小步,而非革命性飞跃。</p><p>既然更多算力通常意味着更强性能,为何OpenAI会反其道而行?这对未来模型发展意味着什么?</p><p>在与a16z合伙人Martin Casado对话中,OpenAI平台工程负责人Sherwin Wu,深度拆解了OpenAI当前平台架构、定价逻辑与未来方向。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4c40b2ba267dde1f05f4ec328eeb02c6\" title=\"\" tg-width=\"640\" tg-height=\"480\"/></p><p>在这次访谈中,他们深入探讨了为何开发者往往会长期依赖某个“值得信赖”的模型系列,信任感是如何建立的,以及为什么行业已经逐步放弃了“一个模型通吃所有任务”的幻想。</p><p>Sherwin还讲解了从提示词工程到上下文设计的演变过程,以及企业如何借助OpenAI的微调(fine-tuning)和RFT API,利用自有数据定制模型行为。</p><p><strong>共识已变</strong></p><p>几年前,OpenAI内部认为:未来会有一个“统治一切”的超级模型。但现在行业共识已经转变为“模型的专业化和多样化”。</p><p>虽然会有强大的通用模型,但也需要针对特定任务(如编程Codex、视频Sora)的专用模型。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/6ffb70725eae1fb889e3782b87239bba\" title=\"\" tg-width=\"1024\" tg-height=\"591\"/></p><p>文本、图像、视频背后的技术堆栈各不同。目前,在后台。这些模型往往是分开优化的独立系统,很难简单地“一锅炖”。</p><p>顺便提一句,正是DALL-E 2的出现让Sherwin决定加入OpenAI,因为那是他第一次感受到AI的魔力。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/f6e12233fa906f34344941cdb25a9810\" title=\"\" tg-width=\"902\" tg-height=\"934\"/></p><p><strong>而微调(Fine-tuning)也悄然进化——</strong></p><p>早期的微调,主要用于调整“语气”或“指令遵循”。 现在的重头戏,是强化学习微调(Reinforcement Fine-Tuning) 。</p><p>这允许企业利用其庞大的专有数据(Data Treasure Troves),将较小的模型在特定领域训练至SOTA水平。这是解锁企业数据的关键。</p><p>也就是说,企业拥有大量内部数据,但与ChatGPT“毫无关系”,对企业专属AI而言却是黄金。</p><p>他们多次提到AI代码编辑器Cursor作为建立在 OpenAI API 之上的成功产品案例,证明了:</p><p>即使OpenAI自己有竞品,开发者依然可以建立伟大的垂直应用。</p><p><strong>Agent开发模式</strong></p><p>从第一天起,奥特曼和Greg Brockman就确立了“App+ API”的双轨战略。</p><p>这样做是为了尽可能广泛地分发AGI的利益——</p><p>如果只做 API,你就无法触达普通消费者;如果只做应用,你就无法赋能各行各业的开发者。</p><p>在这次对话中,他们重点谈论了智能体开发工具“Agent Builder”。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/201dfae6a43449d8005d3da7970dee23\" title=\"\" tg-width=\"1024\" tg-height=\"619\"/></p><p>Sherwin认为,智能体(Agent)并非一种全新的模态,而是AI的一种新使用方式。</p><p>本质上,智能体是一个能够代表用户、在<strong>较长的时间跨度</strong>(Long Time Horizons)内执行一系列操作并完成任务的AI系统。</p><p>OpenAI曾推出了可视化的“Agent Builder”(节点式构建),但发现对于开发者而言,这种方式可能过于受限。</p><p>访谈中,Sherwin和Martin将智能体清晰地划分为两类,这解释了为什么目前市面上的Agent产品形态各异——</p><p>探索型/非定向工作 (Undirected/Exploratory Work)</p><p>流程型/SOP导向工作 (Procedural/SOP-oriented Work)</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/60688c8a0e1f7ff3a88cde86be9dc509\" title=\"\" tg-width=\"784\" tg-height=\"1168\"/></p><p><strong>在对话中,第二类</strong>Agent开发可能更像传统的软件工程或游戏开发中的<strong>NPC(非玩家角色)逻辑</strong>。</p><p>与其让模型完全自由发挥,不如通过代码给予它明确的逻辑框架和标准操作程序(SOP),特别是在受监管的行业(如客户支持、金融)。</p><p>也就是说,<strong>逻辑必须写死在代码里,而不是提示词里。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/0febfd6f41c50dad6d657fa232544d55\" title=\"\" tg-width=\"1024\" tg-height=\"573\"/></p><p>这就是Agent Builder想要解决的问题:为那些必须控制智能体行为的行业和场景,提供一个简单、清晰、可验证的解决方案。</p><p><strong>One More Thing</strong></p><p>2025年度压轴大戏,谷歌Gemini 3 Pro无疑打了一场胜仗,但OpenAI不会袖手旁观。</p><p>内部已确认,圣诞节前夕,一连串发布连番轰炸。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/068139b0bfd7eab3ce6848402d785da0\" title=\"\" tg-width=\"1024\" tg-height=\"531\"/></p><p>据传,一系列新模型,在路上了——</p><p>Image Gen v2</p><p>IMO和IOI金牌多模态模型</p><p>GPT-5.2 Codex</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/d7469baa6b21e416b62badf3a90092a1\" title=\"\" tg-width=\"1024\" tg-height=\"358\"/></p><p>12月,AI圈一定非常热闹。</p><p> </p></body></html>","source":"lsy1569730104218","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>OpenAI大溃败!GPT-5“换皮”GPT-4o,两年半预训练0突破</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\nOpenAI大溃败!GPT-5“换皮”GPT-4o,两年半预训练0突破\n</h2>\n\n<h4 class=\"meta\">\n\n\n2025-11-30 14:53 北京时间 <a href=https://mp.weixin.qq.com/s/Y4nvwCeB8xXXPD4-MEeNeg><strong>新智元</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>OpenAI被曝陷入严重技术停滞——其最新发布的GPT-5实质仍是基于GPT-4o架构的优化版本,自2022年GPT-4发布后长达两年半期间未能实现预训练技术的实质性突破。与此同时,谷歌凭借TPUv7在预训练领域突飞猛进,迫使OpenAI紧急启动新模型研发计划以应对技术落后危机。OpenAI核心预训练,接连翻车?传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被...</p>\n\n<a href=\"https://mp.weixin.qq.com/s/Y4nvwCeB8xXXPD4-MEeNeg\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/bf31e5a2ea5c40f9fab4d1b4548dc76d","relate_stocks":{"GOOG":"谷歌","GOOGL":"谷歌A"},"source_url":"https://mp.weixin.qq.com/s/Y4nvwCeB8xXXPD4-MEeNeg","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2587795167","content_text":"OpenAI被曝陷入严重技术停滞——其最新发布的GPT-5实质仍是基于GPT-4o架构的优化版本,自2022年GPT-4发布后长达两年半期间未能实现预训练技术的实质性突破。与此同时,谷歌凭借TPUv7在预训练领域突飞猛进,迫使OpenAI紧急启动新模型研发计划以应对技术落后危机。OpenAI核心预训练,接连翻车?传言称,GPT-5的基石仍是GPT-4o,且GPT-4.5之后的预训练版本,都被OpenAI放弃了!这么说并非空穴来风,核心爆料恰恰来自权威SemiAnalysis的最新一文——OpenAI顶尖团队自GPT-4o发布之后,迄今尚未完成一次完整的,为下一代前沿模型设计的大规模预训练。文章中,高级分析师强调:谷歌正手持TPUv7这把利剑,向英伟达王座发起冲锋,或将终结CUDA护城河。众所周知,OpenAI全栈模型是在纯英伟达GPU上炼出的。然而,圈内人的焦点,大都放在了大模型“推理”和“后训练”的硬件之上。殊不知,没有前沿模型的预训练,一切皆是“无米之炊”。恰恰这一环节,成为了AI硬件里最难、最耗资源的一关。如今,一个不为人知的内幕爆出了:事实证明,谷歌TPU彻底经受住了这一考验;相较之下,自2024年5月GPT-4o诞生之后,OpenAI的预训练却毫无进展.....过去,两年半的时间,OpenAI没有真正Scaling预训练的规模。GPT的预训练,或许在GPT-4o之后触及了天花板,由此也解释了GPT-5性能未达业界预期的关键原因。有网友表示,那不正是Ilya离开的时候吗.....恰在昨天,Ilya最新发文称,Scaling不会停,但某个重要的东西仍然会缺失。OpenAI预训练,大溃败还记得去年底,那场铺天盖地的“Orion”传闻吗?这一秘密项目,原定以GPT-5面世,但因训练未达预期,最终被降级为GPT-4.5发布。在前沿模型预训练上,OpenAI的研发似乎陷入了僵局——如今第五代旗舰模型GPT-5,包括最新GPT-5.1,其“技术根基”本质或仍未突破GPT-4o的范畴。SemiAnalysis去年底一篇文章,曾对外公开了Orion训练的困境。当前,算法的进步使得模型每年所需的物理计算量减少约三分之一,因此,训练运行时间很少超过3个月。甚至,行业中大多数预训练通常仅需要1-2个月。然而,OpenAI的Orion大规模预训练,却打破了这一常规,其训练时间超过了3个月。另据Information同一时间爆出,Orion不会像前代实现巨大的飞跃,相较于从GPT-3到GPT-4的迭代,改进幅度要小得多。不仅如此,Orion性能提升也基本局限在——语言能力上,其代码能力甚至不如旧模型,且成本更高。如今再回看2月,GPT-4.5的诞生,基于代号Orion的模型,OpenAI追求的是:更强的语言能力+更稳的对话体验+更大知识库情商,成为了GPT-4.5的关键词。代码虽有提升,但并非主菜。这一切的一切,从侧面印证了,此前外媒关于“Orion遇挫”爆料的准确性——LLM有提升,但不大。GPT-4o,成Scaling主线?今年8月,GPT-5的那场发布,奥特曼将其定调为“博士级AI,是通往AGI又一里程碑”。实则,业界对于GPT-5的反响,唏嘘一片。大家原本以为,GPT-5会是全面超越前代的一次飞跃,但实际发布后,更像是GPT-4.5的进一步优化版,不是“颠覆版”。但至于GPT-5真正基于哪一款GPT打造,还有待证实。正如之前传闻的猜测,有可能是GPT-4o,还有Reddit网友称是GPT-4.1....但不论是哪一款,都证明了GPT-5,没有在全新前沿模型的大规模预训练上淬炼。搞笑的,那个曾将OpenAI三颗????????????“焊在”名字中的大佬,如今改成了三个????????????。他表示,这已经不是什么秘密了——GPT-4.5将预训练推向极致之后,OpenAI加倍投入了推理范式,主打o系列+RL。不同的是,谷歌和Anthropic仍在Scaling预训练,并增强了强化学习。OpenAI主动放弃了这一范式,为劲敌让出了一条速通道。奥特曼:这事儿瞒不住了!Gemini 3发布后,谷歌和OpenAI攻守之势易形——Gemini 3来势汹汹,而OpenAI这次终于坐不住了!据泄露的内部备忘录,奥特曼坦言:“近期, 从各方面来看,谷歌在大语言模型表现出色”,特别是预训练。这番表态标志OpenAI的重大转变——它终于承认,一个重新崛起的竞争对手与逐渐降温的企业需求,已彻底打破了其“天下无敌”的光环。所谓预训练,是训练生成式AI模型(无论是文本还是图像)过程中的第一阶段。在这一阶段,研究人员会用网页等大量数据“投喂”模型,让它掌握数据之间的各种关联。大语言模型(LLM)开发与训练流程概述:预训练和后训练是关键在预训练领域,谷歌取得了新突破,给Gemini 3带来了空前的推理深度。这让不少AI研究者颇感意外——毕竟,OpenAI去年曾屡屡碰壁,而谷歌自己过去也曾陷入瓶颈。正因如此,在一段时间内,OpenAI选择将更多精力转向另一种新型AI架构——“推理模型”,这种模型虽然计算量更大,但有望输出更优质的回答。在推出GPT-5之前,OpenAI团队曾尝试对预训练阶段做出一系列调整,这些方法在小模型上有效,一旦模型变大就失效了。GPT-5发布第二天,西班牙与波兰Talan公司AI应用负责人Javier Alba de Alba表示:(GPT-5)整体观感颇为失望:这是个优秀的模型——响应迅捷、价格亲民、能力全面,但远非人们基于OpenAI过往发布会所预期的代际飞跃。GPT-5带来了不少提升——编程能力显著提升、推理能力进阶、幻觉现象减少、医疗领域表现优化,甚至免费用户也享有更长的默认使用时长。此外命名体系全面简化:GPT-4o/4.1/turbo/mini等繁杂名称悉数消失,统一更名为GPT-5。不过,Javier Alba de Alba提醒:“千万不要被名称迷惑:GPT-5并非新一代产品。”他解释道:技术层面而言,它更像是GPT-4o的功能增强版,即便命名为GPT-4.2也毫不违和。OpenAI此举虽完成了必要的名称统一,但整场发布会未能达到预期,让技术社区颇感失落。GPT-5发布后,Epoch AI也发现了其中的异常:相比前代GPT-4.5,GPT-5很可能消耗了更少的训练算力。虽然具体数值尚未公开,但GPT-4.5使用的训练算力极有可能超过GPT-5。预训练并未消亡,它依然是胜负关键。在内部会议中,奥特曼鼓舞士气,称在未来几个月,OpenAI将重新夺回优势。其中关键举措之一,就是打造一款代号为“Shallotpeat”的新一代大语言模型。据知情人士透露,该模型的设计目标之一,就是专门修复OpenAI在预训练过程中遇到的种种“疑难杂症”。OpenAI:内部的风向变了GPT-5发布的实质是什么?对现有ChatGPT用户而言,GPT-5是个好消息,但这并未开启新时代。它只是进化历程中的一小步,而非革命性飞跃。既然更多算力通常意味着更强性能,为何OpenAI会反其道而行?这对未来模型发展意味着什么?在与a16z合伙人Martin Casado对话中,OpenAI平台工程负责人Sherwin Wu,深度拆解了OpenAI当前平台架构、定价逻辑与未来方向。在这次访谈中,他们深入探讨了为何开发者往往会长期依赖某个“值得信赖”的模型系列,信任感是如何建立的,以及为什么行业已经逐步放弃了“一个模型通吃所有任务”的幻想。Sherwin还讲解了从提示词工程到上下文设计的演变过程,以及企业如何借助OpenAI的微调(fine-tuning)和RFT API,利用自有数据定制模型行为。共识已变几年前,OpenAI内部认为:未来会有一个“统治一切”的超级模型。但现在行业共识已经转变为“模型的专业化和多样化”。虽然会有强大的通用模型,但也需要针对特定任务(如编程Codex、视频Sora)的专用模型。文本、图像、视频背后的技术堆栈各不同。目前,在后台。这些模型往往是分开优化的独立系统,很难简单地“一锅炖”。顺便提一句,正是DALL-E 2的出现让Sherwin决定加入OpenAI,因为那是他第一次感受到AI的魔力。而微调(Fine-tuning)也悄然进化——早期的微调,主要用于调整“语气”或“指令遵循”。 现在的重头戏,是强化学习微调(Reinforcement Fine-Tuning) 。这允许企业利用其庞大的专有数据(Data Treasure Troves),将较小的模型在特定领域训练至SOTA水平。这是解锁企业数据的关键。也就是说,企业拥有大量内部数据,但与ChatGPT“毫无关系”,对企业专属AI而言却是黄金。他们多次提到AI代码编辑器Cursor作为建立在 OpenAI API 之上的成功产品案例,证明了:即使OpenAI自己有竞品,开发者依然可以建立伟大的垂直应用。Agent开发模式从第一天起,奥特曼和Greg Brockman就确立了“App+ API”的双轨战略。这样做是为了尽可能广泛地分发AGI的利益——如果只做 API,你就无法触达普通消费者;如果只做应用,你就无法赋能各行各业的开发者。在这次对话中,他们重点谈论了智能体开发工具“Agent Builder”。Sherwin认为,智能体(Agent)并非一种全新的模态,而是AI的一种新使用方式。本质上,智能体是一个能够代表用户、在较长的时间跨度(Long Time Horizons)内执行一系列操作并完成任务的AI系统。OpenAI曾推出了可视化的“Agent Builder”(节点式构建),但发现对于开发者而言,这种方式可能过于受限。访谈中,Sherwin和Martin将智能体清晰地划分为两类,这解释了为什么目前市面上的Agent产品形态各异——探索型/非定向工作 (Undirected/Exploratory Work)流程型/SOP导向工作 (Procedural/SOP-oriented Work)在对话中,第二类Agent开发可能更像传统的软件工程或游戏开发中的NPC(非玩家角色)逻辑。与其让模型完全自由发挥,不如通过代码给予它明确的逻辑框架和标准操作程序(SOP),特别是在受监管的行业(如客户支持、金融)。也就是说,逻辑必须写死在代码里,而不是提示词里。这就是Agent Builder想要解决的问题:为那些必须控制智能体行为的行业和场景,提供一个简单、清晰、可验证的解决方案。One More Thing2025年度压轴大戏,谷歌Gemini 3 Pro无疑打了一场胜仗,但OpenAI不会袖手旁观。内部已确认,圣诞节前夕,一连串发布连番轰炸。据传,一系列新模型,在路上了——Image Gen v2IMO和IOI金牌多模态模型GPT-5.2 Codex12月,AI圈一定非常热闹。","news_type":1,"symbols_score_info":{"GOOG":0.9,"GOOGL":0.9}},"isVote":1,"tweetType":1,"viewCount":214,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":504006205161904,"gmtCreate":1764082711586,"gmtModify":1764082716956,"author":{"id":"3495002759494258","authorId":"3495002759494258","name":"寂寞的演奏家","avatar":"https://static.tigerbbs.com/9027c93e57bb45c8170d7860486ffda7","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3495002759494258","idStr":"3495002759494258"},"themes":[],"title":"","htmlText":"还能打对折? 还有对折的空间吗???","listText":"还能打对折? 还有对折的空间吗???","text":"还能打对折? 还有对折的空间吗???","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/504006205161904","repostId":"1152883060","repostType":2,"repost":{"id":"1152883060","kind":"news","weMediaInfo":{"introduction":"为用户提供金融资讯、行情、数据,旨在帮助投资者理解世界,做投资决策。","home_visible":1,"media_name":"老虎资讯综合","id":"102","head_image":"https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba"},"pubTimestamp":1764082372,"share":"https://www.laohu8.com/m/news/1152883060?lang=&edition=full","pubTime":"2025-11-25 22:52","market":"us","language":"zh","title":"特斯拉盘初跌超2%,10月在欧洲销量同比减少48.5%","url":"https://stock-news.laohu8.com/highlight/detail?id=1152883060","media":"老虎资讯综合","summary":"市场份额从1.3%降至0.6%。","content":"<html><head></head><body><p>周二, <a href=\"https://laohu8.com/S/TSLA\">特斯拉</a> 盘初下挫,跌幅超2%。特斯拉10月在欧洲新车注册量为6964辆,较一年前的13519辆减少48.5%,市场份额从1.3%降至0.6%。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9102f40238a40945ea6a8859140fc400\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p></p></body></html>","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>特斯拉盘初跌超2%,10月在欧洲销量同比减少48.5%</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n特斯拉盘初跌超2%,10月在欧洲销量同比减少48.5%\n</h2>\n\n<h4 class=\"meta\">\n\n\n<a class=\"head\" href=\"https://laohu8.com/wemedia/102\">\n\n\n<div class=\"h-thumb\" style=\"background-image:url(https://static.tigerbbs.com/8274c5b9d4c2852bfb1c4d6ce16c68ba);background-size:cover;\"></div>\n\n<div class=\"h-content\">\n<p class=\"h-name\">老虎资讯综合 </p>\n<p class=\"h-time\">2025-11-25 22:52</p>\n</div>\n\n</a>\n\n\n</h4>\n\n</header>\n<article>\n<html><head></head><body><p>周二, <a href=\"https://laohu8.com/S/TSLA\">特斯拉</a> 盘初下挫,跌幅超2%。特斯拉10月在欧洲新车注册量为6964辆,较一年前的13519辆减少48.5%,市场份额从1.3%降至0.6%。</p><p></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/9102f40238a40945ea6a8859140fc400\" title=\"\" tg-width=\"560\" tg-height=\"240\"/></p><p></p></body></html>\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/340d3c04436bbba1df239d6d4a7e3fd2","relate_stocks":{"TSLA":"特斯拉"},"source_url":"","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1152883060","content_text":"周二, 特斯拉 盘初下挫,跌幅超2%。特斯拉10月在欧洲新车注册量为6964辆,较一年前的13519辆减少48.5%,市场份额从1.3%降至0.6%。","news_type":1,"symbols_score_info":{"TSLA":2}},"isVote":1,"tweetType":1,"viewCount":203,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":504003163734576,"gmtCreate":1764082022528,"gmtModify":1764082049213,"author":{"id":"3495002759494258","authorId":"3495002759494258","name":"寂寞的演奏家","avatar":"https://static.tigerbbs.com/9027c93e57bb45c8170d7860486ffda7","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3495002759494258","idStr":"3495002759494258"},"themes":[],"title":"","htmlText":"<a href=\"https://laohu8.com/S/NIO\">$蔚来(NIO)$ </a>这公司还活着就是奇迹","listText":"<a href=\"https://laohu8.com/S/NIO\">$蔚来(NIO)$ </a>这公司还活着就是奇迹","text":"$蔚来(NIO)$ 这公司还活着就是奇迹","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/504003163734576","isVote":1,"tweetType":1,"viewCount":122,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":504004062880256,"gmtCreate":1764081782329,"gmtModify":1764081792387,"author":{"id":"3495002759494258","authorId":"3495002759494258","name":"寂寞的演奏家","avatar":"https://static.tigerbbs.com/9027c93e57bb45c8170d7860486ffda7","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3495002759494258","idStr":"3495002759494258"},"themes":[],"title":"","htmlText":"<a href=\"https://laohu8.com/S/AMD\">$美国超微公司(AMD)$ </a>AMD这波要没了。干了这么多年,不如谷歌一天","listText":"<a href=\"https://laohu8.com/S/AMD\">$美国超微公司(AMD)$ </a>AMD这波要没了。干了这么多年,不如谷歌一天","text":"$美国超微公司(AMD)$ AMD这波要没了。干了这么多年,不如谷歌一天","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/504004062880256","isVote":1,"tweetType":1,"viewCount":367,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":504002096386160,"gmtCreate":1764081679462,"gmtModify":1764081681531,"author":{"id":"3495002759494258","authorId":"3495002759494258","name":"寂寞的演奏家","avatar":"https://static.tigerbbs.com/9027c93e57bb45c8170d7860486ffda7","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3495002759494258","idStr":"3495002759494258"},"themes":[],"title":"","htmlText":"<a href=\"https://laohu8.com/S/NVDA\">$英伟达(NVDA)$ </a>最尴尬的是AMD,跟NVDA干了这么多年,最后让Google给摘了果子","listText":"<a href=\"https://laohu8.com/S/NVDA\">$英伟达(NVDA)$ </a>最尴尬的是AMD,跟NVDA干了这么多年,最后让Google给摘了果子","text":"$英伟达(NVDA)$ 最尴尬的是AMD,跟NVDA干了这么多年,最后让Google给摘了果子","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":5,"commentSize":6,"repostSize":1,"link":"https://laohu8.com/post/504002096386160","isVote":1,"tweetType":1,"viewCount":3346,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"4092177932484180","authorId":"4092177932484180","name":"雁门关向东二万五千里","avatar":"https://static.tigerbbs.com/07291789f4dae4cc64e158f365e7e31b","crmLevel":2,"crmLevelSwitch":0,"authorIdStr":"4092177932484180","idStr":"4092177932484180"},"content":"其实就是庄家炒作出货,看看甲骨文就知道","text":"其实就是庄家炒作出货,看看甲骨文就知道","html":"其实就是庄家炒作出货,看看甲骨文就知道"},{"author":{"id":"3486352703133754","authorId":"3486352703133754","name":"Vinsa8","avatar":"https://static.tigerbbs.com/4aa0eb0aaff159d9b2509af8452bc77f","crmLevel":1,"crmLevelSwitch":0,"authorIdStr":"3486352703133754","idStr":"3486352703133754"},"content":"哈哈哈哈哈哈","text":"哈哈哈哈哈哈","html":"哈哈哈哈哈哈"}],"imageCount":0,"langContent":"CN","totalScore":0},{"id":504000682561904,"gmtCreate":1764081169649,"gmtModify":1764081171519,"author":{"id":"3495002759494258","authorId":"3495002759494258","name":"寂寞的演奏家","avatar":"https://static.tigerbbs.com/9027c93e57bb45c8170d7860486ffda7","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3495002759494258","idStr":"3495002759494258"},"themes":[],"title":"","htmlText":"<a href=\"https://laohu8.com/S/GOOG\">$谷歌(GOOG)$ </a> 要回调","listText":"<a href=\"https://laohu8.com/S/GOOG\">$谷歌(GOOG)$ </a> 要回调","text":"$谷歌(GOOG)$ 要回调","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/504000682561904","isVote":1,"tweetType":1,"viewCount":156,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":503667780060048,"gmtCreate":1763988602423,"gmtModify":1763989550776,"author":{"id":"3495002759494258","authorId":"3495002759494258","name":"寂寞的演奏家","avatar":"https://static.tigerbbs.com/9027c93e57bb45c8170d7860486ffda7","crmLevel":1,"crmLevelSwitch":0,"followedFlag":false,"authorIdStr":"3495002759494258","idStr":"3495002759494258"},"themes":[],"title":"","htmlText":"<a href=\"https://laohu8.com/S/NVO\">$诺和诺德(NVO)$ </a> 我跟你们看法不同,这恰恰证明了NVO身陷绝境, 这种消息看似影响不大,实则是市场对NVO的预期从减肥大佬变成了希望它能治疗痴呆症。。。。 根本问题还产品太垂直,并且按照临床试验的要求,产品更新迭代速度太慢。 公司前途很危险,除非礼来等公司傻到送人头。","listText":"<a href=\"https://laohu8.com/S/NVO\">$诺和诺德(NVO)$ </a> 我跟你们看法不同,这恰恰证明了NVO身陷绝境, 这种消息看似影响不大,实则是市场对NVO的预期从减肥大佬变成了希望它能治疗痴呆症。。。。 根本问题还产品太垂直,并且按照临床试验的要求,产品更新迭代速度太慢。 公司前途很危险,除非礼来等公司傻到送人头。","text":"$诺和诺德(NVO)$ 我跟你们看法不同,这恰恰证明了NVO身陷绝境, 这种消息看似影响不大,实则是市场对NVO的预期从减肥大佬变成了希望它能治疗痴呆症。。。。 根本问题还产品太垂直,并且按照临床试验的要求,产品更新迭代速度太慢。 公司前途很危险,除非礼来等公司傻到送人头。","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":5,"repostSize":0,"link":"https://laohu8.com/post/503667780060048","isVote":1,"tweetType":1,"viewCount":5400,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"55131424959149","authorId":"55131424959149","name":"guet25","avatar":"https://static.laohu8.com/default-avatar.jpg","crmLevel":8,"crmLevelSwitch":0,"authorIdStr":"55131424959149","idStr":"55131424959149"},"content":"如果市场期待他能治疗痴呆症就不会只给10pe了,应该向礼来的几十pe看齐","text":"如果市场期待他能治疗痴呆症就不会只给10pe了,应该向礼来的几十pe看齐","html":"如果市场期待他能治疗痴呆症就不会只给10pe了,应该向礼来的几十pe看齐"},{"author":{"id":"3573898833346081","authorId":"3573898833346081","name":"SnowA","avatar":"https://static.tigerbbs.com/fbd508c2de600824f07ff5f82d56c853","crmLevel":2,"crmLevelSwitch":0,"authorIdStr":"3573898833346081","idStr":"3573898833346081"},"content":"诺和诺德有多少个管线在研的,你了解吗?[惊讶]","text":"诺和诺德有多少个管线在研的,你了解吗?[惊讶]","html":"诺和诺德有多少个管线在研的,你了解吗?[惊讶]"}],"imageCount":0,"langContent":"CN","totalScore":0}],"defaultTab":"following","isTTM":false}