黄山松Gordon
05-06 13:09
这篇文章不错,转发给大家看看
预测服务器CPU市场5年5倍!瑞银:ARM是最大收益者,AMD次之,最后是英特尔
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
1
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":561203096085760,"tweetId":"561203096085760","gmtCreate":1778044179177,"gmtModify":1778044181161,"author":{"id":4220745243772712,"idStr":"4220745243772712","authorId":4220745243772712,"authorIdStr":"4220745243772712","name":"黄山松Gordon","avatar":"https://community-static.tradeup.com/news/default-avatar.jpg","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":1,"crmLevelSwitch":0,"individualDisplayBadges":[],"wearingBadges":[],"fanSize":1,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"title":"","html":"<html><head></head><body>这篇文章不错,转发给大家看看</body></html>","htmlText":"<html><head></head><body>这篇文章不错,转发给大家看看</body></html>","text":"这篇文章不错,转发给大家看看","highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/561203096085760","repostId":1171808479,"repostType":2,"repost":{"id":"1171808479","kind":"news","pubTimestamp":1778038915,"share":"https://www.laohu8.com/m/news/1171808479?lang=zh_CN&edition=full","pubTime":"2026-05-06 11:41","market":"us","language":"zh","title":"预测服务器CPU市场5年5倍!瑞银:ARM是最大收益者,AMD次之,最后是英特尔","url":"https://stock-news.laohu8.com/highlight/detail?id=1171808479","media":"华尔街见闻","summary":"服务器CPU的潜在市场规模,将从2025年的约300亿美元,增长至2030年的约1700亿美元,五年涨幅接近5倍。分析师明确给出排名:ARM是服务器CPU侧最大受益者,其次是$AMD$,再次是$英特尔$——但三者均将受益。该行预计,到2030年,ARM将占据头节点CPU市场75%以上的份额。报告援引AMD在2025年11月分析师日的表态:AMD预计服务器CPU市场将从2025年的260亿美元增长至2030年的约600亿美元,其中AI驱动的CPU将占2030年市场的约50%;AMD预计自身在总市场的份额将超过50%。","content":"<html><head></head><body><p style=\"text-align: left;\">AI时代,被GPU抢尽风头的CPU,或许正在悄悄迎来一场属于自己的爆发。</p><p style=\"text-align: left;\">据追风交易台,5月5日,<a href=\"https://laohu8.com/S/UBS\">瑞银</a>全球研究团队发布了一份针对美国半导体行业的深度研报。面对投资者关于“代理式AI将如何影响服务器CPU市场”的密集提问,分析师Timothy Arcuri等人通过一系列行业专家访谈并结合自下而上和自上而下两套模型,得出了一个明确的结论:</p><p style=\"text-align: left;\"><strong>市场严重低估了AI时代CPU的价值。服务器CPU的潜在市场规模(TAM),将从2025年的约300亿美元,增长至2030年的约1700亿美元,五年涨幅接近5倍。</strong></p><p style=\"text-align: left;\">在过去两年的AI狂热中,GPU抢走了所有的聚光灯。但随着AI从“单纯的对话生成”进化为“自主执行任务的代理(Agent)”,算力的瓶颈正在悄然转移。</p><h2 style=\"text-align: left; padding-left: 10px;\"><strong>代理式AI重塑算力格局:从“GPU主导”到“CPU回归”</strong></h2><p style=\"text-align: left;\">要理解CPU市场的爆发,首先要理解代理式AI与传统AI的工作负载差异。</p><p style=\"text-align: left;\">在传统的AI训练和基础推理阶段,GPU是绝对的主力。如果把AI算力比作一个工厂,GPU就是流水线上不知疲倦的工人,而CPU则是负责分配任务的经理。在传统模式下,一个经理(CPU)可以轻松管理多个工人(GPU)。</p><p style=\"text-align: left;\">但代理式AI改变了游戏规则。代理式AI不仅需要生成文本,还需要进行任务编排、工具调用(例如在沙盒虚拟机中执行代码)、文件检索等。这意味着“经理”的工作量呈指数级上升。</p><p style=\"text-align: left;\">分析师在专家访谈中获取了极具冲击力的数据:</p><ul style=\"list-style-type: none;\"><li><p style=\"text-align: left;\"><strong>工作量重心的转移:</strong> 专家指出,“在传统的AI工作负载中,70-80%的算力消耗在推理本身(GPU)上;但在代理式推理中,这个比例反转了,70-80%的工作量转移到了CPU上。”</p></li><li><p style=\"text-align: left;\"><strong>核心配比的暴增:</strong> 传统的AI训练中,每个GPU通常只需配备8-12个CPU核心;在基础推理中,需要16-24个核心;<strong>而在代理式AI中,每个GPU需要配备80-120个CPU核心。</strong> 这相当于,同样一颗GPU,在智能体场景下需要的CPU核心数是传统训练场景的<strong>5-10倍</strong>。</p></li><li><p style=\"text-align: left;\"><strong>并发任务的压力:</strong> “一个代理(及其衍生出的每一个子代理)可能需要1-4个CPU核心,而一个复杂的任务可能需要生成10-100个子代理。”</p></li></ul><p style=\"text-align: left;\">这种底层逻辑的转变,<strong>直接打破了过去“重GPU、轻CPU”的算力架构,为CPU市场打开了巨大的增量空间。</strong></p><p style=\"text-align: left;\"></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/25601f60ab27e749f6a69bea9192c0e0\" data-align=\"center\" tg-width=\"640\" tg-height=\"383\"/><span></span></p><h2 style=\"text-align: left; padding-left: 10px;\"><strong>1700亿美元的海量市场</strong></h2><p style=\"text-align: left;\">基于上述逻辑,该行分析师对服务器CPU的总潜在市场(TAM)进行了重新测算。结果显示,到2030年,该市场规模将达到约1700亿美元。</p><p style=\"text-align: left;\">这个庞大的数字是如何得出的?分析师采用了“自下而上”和“自上而下”两种方法进行交叉验证:</p><p style=\"text-align: left;\"><strong>1. 自下而上(Bottom-up)测算:</strong> 分析师基于美国超大云服务商(Hyperscalers)的加速器模型预测,到2027年,市场将出货约2300万个加速器(XPU)和约1000万个头节点CPU。随着代理式AI的发展,到2030年,加速器出货量将达到约4000万个。 更重要的是,CPU与GPU的配比率将从目前的1:4,逐渐向1:2甚至1:1靠拢。此外,由于AI应用需要更高核心数和更高频率的芯片,AI CPU的平均售价(ASP)将显著提升。例如,<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>的144核Grace CPU定价可能在3000至4000美元之间。量价齐升之下,仅AI CPU市场的规模就将达到1250亿美元。</p><p style=\"text-align: left;\"><strong>2. 自上而下(Top-down)测算:</strong> 分析师参考了英伟达对2030年AI总潜在市场(3万亿至4万亿美元)的预测。推算出2030年将有约4000万个XPU出货。假设每个XPU的平均ASP提升至3000美元,结合1:1或2:1的CPU配比率,同样推导出AI CPU市场规模在1200亿至2000亿美元之间。</p><p style=\"text-align: left;\">分析师将未来的CPU市场划分为三个核心板块:</p><ul style=\"list-style-type: none;\"><li><p style=\"text-align: left;\"><strong>传统服务器市场:</strong> 保持稳定增长,预计到2030年出货量约为4400万台。</p></li><li><p style=\"text-align: left;\"><strong>AI头节点(Head Nodes):</strong> 与GPU机架捆绑,主要负责任务编排和优化GPU利用率。</p></li><li><p style=\"text-align: left;\"><strong>AI独立机架(Standalone):</strong> 纯CPU服务器,专门用于处理代理式AI的工具调用和子代理并发任务。</p></li></ul><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/be2c626533d07cbb2e78bb92d731566b\" data-align=\"center\" tg-width=\"640\" tg-height=\"482\"/><span></span></p><p style=\"text-align: left;\">市场的饼做大了,关键是怎么分。</p><p style=\"text-align: left;\">分析师明确给出排名:<strong>ARM是服务器CPU侧最大受益者,其次是<a href=\"https://laohu8.com/S/AMD\">AMD</a>,再次是<a href=\"https://laohu8.com/S/INTC\">英特尔</a>——但三者均将受益。</strong></p><h2 style=\"text-align: left; padding-left: 10px;\"><strong>ARM:份额从15%冲向40-45%</strong></h2><p style=\"text-align: left;\">2025年,ARM架构在服务器CPU市场的单位份额约为15%。报告预计,到2030年,这一数字将升至<strong>40-45%</strong>;若以收入口径计算,由于AI CPU的平均售价(ASP)更高,ARM的收入份额将进一步达到<strong>50-55%</strong>。</p><p style=\"text-align: left;\">ARM的优势在哪里?</p><p style=\"text-align: left;\">该行援引专家观点:ARM架构<strong>功耗效率高出约30%,内存效率高出约20-30%</strong>,且凭借更小的核心设计,在延迟和成本上具备明显优势。更关键的是,英伟达Grace、AWS Graviton 5(192核)、<a href=\"https://laohu8.com/S/GOOG\">谷歌</a>等头部超大规模云厂商的自研CPU,几乎清一色采用ARM架构。</p><p style=\"text-align: left;\">该行预计,到2030年,<strong>ARM将占据头节点CPU市场75%以上的份额</strong>。</p><p style=\"text-align: left;\">但ARM也有短板。报告指出,ARM传统上是单线程架构,同步多线程(SMT)能力是近年才逐步开发的功能;在高核心数场景下,核心间干扰和软件兼容性问题依然是挑战;此外,生态系统成熟度仍有待提升,部分软件栈的完善可能要到2028年前后。</p><p style=\"text-align: left;\">基于上述判断,分析师将ARM的12个月目标价从175美元上调至<strong>245美元</strong>。截至报告发布前一日(5月4日),ARM股价报203.26美元,维持“买入”评级。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/da7bf31e19fb2ff79ff7d136e9b590a3\" data-align=\"center\" tg-width=\"640\" tg-height=\"279\"/><span></span></p><h2 style=\"text-align: left; padding-left: 10px;\"><strong>AMD:高核心数+多线程,AI最佳拍档</strong></h2><p style=\"text-align: left;\">AMD的优势在于高核心数和多线程能力,这与智能体AI对CPU"又要快、又要多"的需求高度契合。</p><p style=\"text-align: left;\">报告援引AMD在2025年11月分析师日的表态:AMD预计服务器CPU市场将从2025年的260亿美元增长至2030年的约600亿美元,其中AI驱动的CPU将占2030年市场的约50%;AMD预计自身在总市场的份额将超过50%。</p><p style=\"text-align: left;\">分析师目前对AMD 2030年的EPS预测为25.27美元,若市场按预期演进,修正后的2030年EPS可达28.14美元,上行空间约+11%。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/89f3ca9acc96c8f03658d0f57b982c4c\" data-align=\"center\" tg-width=\"640\" tg-height=\"627\"/><span></span></p><h2 style=\"text-align: left; padding-left: 10px;\"><strong>英特尔:基础盘稳固,但追赶压力大</strong></h2><p style=\"text-align: left;\">英特尔的处境相对复杂。</p><p style=\"text-align: left;\">在传统服务器市场,x86架构仍将保持约85%的份额,英特尔在工具调用、存储优化等特定工作负载上仍具优势。但在AI头节点市场,英特尔的存在感正在被ARM快速压缩。</p><p style=\"text-align: left;\">瑞银指出,英特尔正寄望于"Coral Rapids"产品线来缩小与AMD和ARM的差距,但目前来看,AMD和ARM在AI CPU市场的定位更为有利。</p><p style=\"text-align: left;\">不过,英特尔也有一张独特的牌:<strong>PC端的溢出效应</strong>。随着智能体AI将更多任务推向本地设备执行(Anthropic的Claude Code已在采用这一策略),PC升级周期有望被催化,英特尔将从中受益。</p><p style=\"text-align: left;\"><strong>该行对英特尔2030年EPS的修正上行空间约为+7%,是三家中最低的。</strong></p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/a3a6e208aac9a2966796f005d4e7d9d3\" data-align=\"center\" tg-width=\"640\" tg-height=\"232\"/><span></span></p><h2 style=\"text-align: left; padding-left: 10px;\"><strong>并非所有CPU都一样:延迟vs吞吐量的取舍</strong></h2><p style=\"text-align: left;\">报告还深入拆解了一个容易被忽视的细节:智能体AI对CPU的需求,并不是简单地“核越多越好”。</p><p style=\"text-align: left;\">超大规模云厂商在硬件选择上面临一个根本性的取舍:</p><ul style=\"list-style-type: none;\"><li><p style=\"text-align: left;\"><strong>高核心数CPU</strong>:总吞吐量高,能效比好,但时钟频率低,延迟表现较差,且软件扩展能力有限(大多数软件无法高效利用数百个核心)</p></li><li><p style=\"text-align: left;\"><strong>低核心数、高频率CPU</strong>:延迟低、响应快,适合“头节点”角色(负责编排调度、优化GPU利用率)</p></li></ul><p style=\"text-align: left;\">实际部署中,超大规模云厂商倾向于采用“头节点+大规模计算节点”的分层架构:前者负责低延迟的编排控制,后者负责高吞吐量的并行执行。</p><p style=\"text-align: left;\">这意味着,<strong>能提供宽泛SKU组合(覆盖不同核心数、频率和功耗档位)的厂商,比只押注单一“最强”配置的厂商更有竞争力</strong>。</p><p style=\"text-align: left;\">瑞银还指出,超大规模云厂商的采购决策核心指标不是峰值性能,而是<strong>每瓦特可处理的事务数(transactions per watt)</strong>,内存配置是首要设计变量。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/4eeb97cfe2e6f5c916a754cdd6997309\" data-align=\"center\" tg-width=\"640\" tg-height=\"468\"/><span></span></p><h2 style=\"text-align: left; padding-left: 10px;\"><strong>云端还是边缘?一个悬而未决的变量</strong></h2><p style=\"text-align: left;\">分析师另外提出了一个值得关注的不确定因素:<strong>云端与边缘的计算分工</strong>。</p><p style=\"text-align: left;\">早期智能体部署几乎完全依赖云端,但越来越多的系统设计开始将计算推向本地设备——5到10个并行任务可以直接在本地文件和数据上运行,既减少了延迟,又节省了云端算力成本。</p><p style=\"text-align: left;\">瑞银援引专家估算:本地执行的扩展,可能将云端智能体工作负载所需的CPU容量减少约<strong>25%</strong>。</p><p style=\"text-align: left;\">这意味着,智能体AI对数据中心CPU的拉动倍数,最终可能从5-8倍压缩至约4倍。但与此同时,PC端的CPU需求将被同步拉升,AMD和英特尔均将受益。</p></body></html>","source":"lsy1762389672944","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>预测服务器CPU市场5年5倍!瑞银:ARM是最大收益者,AMD次之,最后是英特尔</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n预测服务器CPU市场5年5倍!瑞银:ARM是最大收益者,AMD次之,最后是英特尔\n</h2>\n\n<h4 class=\"meta\">\n\n\n2026-05-06 11:41 北京时间 <a href=https://wallstreetcn.com/articles/3771615><strong>华尔街见闻</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>AI时代,被GPU抢尽风头的CPU,或许正在悄悄迎来一场属于自己的爆发。据追风交易台,5月5日,瑞银全球研究团队发布了一份针对美国半导体行业的深度研报。面对投资者关于“代理式AI将如何影响服务器CPU市场”的密集提问,分析师Timothy Arcuri等人通过一系列行业专家访谈并结合自下而上和自上而下两套模型,得出了一个明确的结论:市场严重低估了AI时代CPU的价值。服务器CPU的潜在市场规模(...</p>\n\n<a href=\"https://wallstreetcn.com/articles/3771615\">网页链接</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/8a1a8c5698b6f32ee1637556a15bb35b","relate_stocks":{"LU1989764664.SGD":"CPR Invest - Global Disruptive Opportunities A2 Acc SGD-H","BK4515":"5G概念","LU0081259029.USD":"UBS (LUX) EQUITY FUND - TECH OPPORTUNITY \"P\" (USD) ACC","LU0198837287.USD":"UBS (LUX) EQUITY SICAV - USA GROWTH \"P\" (USD) ACC","GFS":"GLOBALFOUNDRIES Inc.","AMDD":"1倍做空AMD ETF-Direxion","LU0056508442.USD":"贝莱德世界科技基金A2","LU0390134368.USD":"FRANKLIN GLOBAL GROWTH \"A\" (USD) ACC","LU2054465674.USD":"UBS (LUX) KEY SELEC SICAV DIGITAL TRANSFORMATION T \"P\" (USD) ACC","LU0097036916.USD":"贝莱德美国增长A2 USD","AMDG":"2倍做多AMD ETF- Leverage Shares","BK4554":"元宇宙及AR概念","LU2860962120.EUR":"CPR INVEST - ARTIFICIAL INTELLIGENCE \"A2\" (EUR) ACC A","AMDL":"2倍做多AMD ETF-GraniteShares","DAMD":"2倍做空AMD ETF-Defiance","LU1064131342.USD":"Fullerton Lux Funds - Global Absolute Alpha A Acc USD","LU2250418816.HKD":"BGF WORLD TECHNOLOGY \"A\" (HKD) ACC","BK4585":"ETF&股票定投概念","LU1988902786.USD":"FULLERTON LUX FUNDS GLOBAL ABSOLUTE ALPHA \"I\" (USD) ACC","AMDS":"GRANITESHARES 1X SHORT AMD DAILY ETF","LU0274383776.USD":"MANULIFE GF US SMALL CAP EQUITY \"AA\" (USD) INC","AMDU":"Defiance Leveraged Long + Income AMD ETF","LU0719512351.SGD":"JPMorgan Funds - US Technology A (acc) SGD","AMDW":"Roundhill AMD WeeklyPay ETF","AMDY":"AMD期权收益策略ETF-YieldMax","LU2148611432.USD":"AZ ALLOCATION BALANCED BRAVE \"AAZ\" (USDHDG) ACC","BK4588":"碎股","BK4550":"红杉资本持仓","LU1861559042.SGD":"日兴方舟颠覆性创新基金B SGD","LU2543165471.USD":"E FUND (HK) GLOBAL QUALITY GROWTH \"A\" (USD) ACC","LU0823421333.USD":"BNP PARIBAS DISRUPTIVE TECHNOLOGY \"C\" (USD) ACC","LU1303367103.USD":"摩根大通多经理另类基金 A (acc)","LU0823421416.USD":"BNP PARIBAS DISRUPTIVE TECHNOLOGY \"C\" (USD) INC","LU2098885051.SGD":"JPMorgan Funds - Multi-Manager Alternatives A (acc) SGD","LU0321505868.SGD":"Schroder ISF Global Dividend Maximiser A Dis SGD","LU2458330169.SGD":"FRANKLIN SHARIAH TECHNOLOGY \"A\" (SGD) ACC","LU1880398554.USD":"AMUNDI FUNDS GLOBAL EQUITY \"A2\" (USD) INC","IE000M9KFDE8.USD":"NEUBERGER BERMAN US LARGE CAP VALUE \"A\" (USD) ACC","IE00BMPRXQ63.HKD":"NEUBERGER BERMAN NEXT GENERATION CONNECTIVITY FUND \"A\" (HKDHDG) ACC","LU0823434583.USD":"BNP PARIBAS US GROWTH \"C\" (USD) ACC","LU0109392836.USD":"富兰克林科技股A","LU2458330243.SGD":"FRANKLIN SHARIAH TECHNOLOGY \"A-H1\" (SGDHDG) ACC","LU1951198990.SGD":"Natixis Thematics AI & Robotics Fund H-R/A SGD-H","LU1861558580.USD":"日兴方舟颠覆性创新基金B","LU0823434740.USD":"BNP PARIBAS US GROWTH \"C\" (USD) INC","ARMG":"2倍做多ARM ETF- Leverage Shares","LU1951200564.SGD":"Natixis Thematics AI & Robotics Fund R/A SGD","BK4529":"IDC概念","BK4602":"量子计算概念","BK4566":"资本集团","ARMW":"Roundhill ARM WeeklyPay ETF","LU1923623000.USD":"Natixis Thematics AI & Robotics Fund R/A USD","IE00BMPRXR70.SGD":"Neuberger Berman 5G Connectivity A Acc SGD-H","IE00BMPRXN33.USD":"NEUBERGER BERMAN 5G CONNECTIVITY \"A\" (USD) ACC","BK4605":"半导体精选","LU2264538146.SGD":"Fullerton Lux Funds - Global Absolute Alpha A Acc SGD","LU0889565833.HKD":"FRANKLIN TECHNOLOGY \"A\" (HKD) ACC","INTW":"2倍做多INTC ETF-GraniteShares","AMUU":"2倍做多AMD ETF-Direxion","LU1316542783.SGD":"Janus Henderson Horizon Global Technology Leaders A2 SGD","LU1242518857.USD":"FULLERTON LUX FUNDS - ASIA ABSOLUTE ALPHA \"I\" (USD) ACC","BK4527":"明星科技股","LU0321505439.SGD":"Schroder ISF Global Dividend Maximiser A Acc SGD","AMYY":"GraniteShares YieldBOOST AMD ETF","BK4609":"英伟达持仓股","LU0642271901.SGD":"Janus Henderson Horizon Global Technology Leaders A2 SGD-H","IE00B5949003.HKD":"JANUS HENDERSON GLOBAL TECHNOLOGY AND INNOVATION \"A\" (HKD) ACC","LU2360106780.USD":"BGF WORLD TECHNOLOGY \"A4\" (USD) INC","LU0082616367.USD":"摩根大通美国科技A(dist)","LU2089985449.USD":"MANULIFE GF GLOBAL SEMICONDUCTOR OPPORTUNITIES \"AA\" (USD) ACC","BK4575":"芯片概念","IE0009356076.USD":"JANUS HENDERSON GLOBAL TECHNOLOGY AND INNOVATION \"A2\" (USD) ACC","LU2931357623.SGD":"MANULIFE GF GLOBAL SEMICONDUCTOR OPPORTUNITIES \"AA\" (SGDHDG) ACC","LU1803068979.SGD":"FTIF - Franklin Technology A (acc) SGD-H1","LU0348723411.USD":"ALLIANZ GLOBAL HI-TECH GROWTH \"A\" (USD) INC","BK4612":"AI芯片","ARM":"ARM Holdings","BK4579":"人工智能","BK4614":"Manus概念股","ARMU":"2倍做多ARM ETF-T-REX","BK4573":"虚拟现实","BK4532":"文艺复兴科技持仓","BK4512":"苹果概念","LU1852331112.SGD":"Blackrock World Technology Fund A2 SGD-H","BK4543":"AI","LU1880398471.USD":"AMUNDI FUNDS GLOBAL EQUITY \"A2\" (USD) ACC","IE0004445239.USD":"JANUS HENDERSON US FORTY \"A2\" (USD) ACC","BK4534":"瑞士信贷持仓","BK4141":"半导体产品","AMD":"美国超微公司","BK4533":"AQR资本管理(全球第二大对冲基金)","LU1242518931.SGD":"Fullerton Lux Funds - Asia Absolute Alpha A Acc SGD","LU0127658192.USD":"EASTSPRING INVESTMENTS GLOBAL TECHNOLOGY \"A\" (USD) ACC","LU2355687059.USD":"NORDEA 1 GLOBAL IMPACT \"BP\" (USD) ACC","INTC":"英特尔","LINT":"Direxion Daily INTC Bull 2X ETF","LU0979878070.USD":"FULLERTON LUX FUNDS - ASIA ABSOLUTE ALPHA \"A\" (USD) ACC","BK4535":"淡马锡持仓"},"source_url":"https://wallstreetcn.com/articles/3771615","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"1171808479","content_text":"AI时代,被GPU抢尽风头的CPU,或许正在悄悄迎来一场属于自己的爆发。据追风交易台,5月5日,瑞银全球研究团队发布了一份针对美国半导体行业的深度研报。面对投资者关于“代理式AI将如何影响服务器CPU市场”的密集提问,分析师Timothy Arcuri等人通过一系列行业专家访谈并结合自下而上和自上而下两套模型,得出了一个明确的结论:市场严重低估了AI时代CPU的价值。服务器CPU的潜在市场规模(TAM),将从2025年的约300亿美元,增长至2030年的约1700亿美元,五年涨幅接近5倍。在过去两年的AI狂热中,GPU抢走了所有的聚光灯。但随着AI从“单纯的对话生成”进化为“自主执行任务的代理(Agent)”,算力的瓶颈正在悄然转移。代理式AI重塑算力格局:从“GPU主导”到“CPU回归”要理解CPU市场的爆发,首先要理解代理式AI与传统AI的工作负载差异。在传统的AI训练和基础推理阶段,GPU是绝对的主力。如果把AI算力比作一个工厂,GPU就是流水线上不知疲倦的工人,而CPU则是负责分配任务的经理。在传统模式下,一个经理(CPU)可以轻松管理多个工人(GPU)。但代理式AI改变了游戏规则。代理式AI不仅需要生成文本,还需要进行任务编排、工具调用(例如在沙盒虚拟机中执行代码)、文件检索等。这意味着“经理”的工作量呈指数级上升。分析师在专家访谈中获取了极具冲击力的数据:工作量重心的转移: 专家指出,“在传统的AI工作负载中,70-80%的算力消耗在推理本身(GPU)上;但在代理式推理中,这个比例反转了,70-80%的工作量转移到了CPU上。”核心配比的暴增: 传统的AI训练中,每个GPU通常只需配备8-12个CPU核心;在基础推理中,需要16-24个核心;而在代理式AI中,每个GPU需要配备80-120个CPU核心。 这相当于,同样一颗GPU,在智能体场景下需要的CPU核心数是传统训练场景的5-10倍。并发任务的压力: “一个代理(及其衍生出的每一个子代理)可能需要1-4个CPU核心,而一个复杂的任务可能需要生成10-100个子代理。”这种底层逻辑的转变,直接打破了过去“重GPU、轻CPU”的算力架构,为CPU市场打开了巨大的增量空间。1700亿美元的海量市场基于上述逻辑,该行分析师对服务器CPU的总潜在市场(TAM)进行了重新测算。结果显示,到2030年,该市场规模将达到约1700亿美元。这个庞大的数字是如何得出的?分析师采用了“自下而上”和“自上而下”两种方法进行交叉验证:1. 自下而上(Bottom-up)测算: 分析师基于美国超大云服务商(Hyperscalers)的加速器模型预测,到2027年,市场将出货约2300万个加速器(XPU)和约1000万个头节点CPU。随着代理式AI的发展,到2030年,加速器出货量将达到约4000万个。 更重要的是,CPU与GPU的配比率将从目前的1:4,逐渐向1:2甚至1:1靠拢。此外,由于AI应用需要更高核心数和更高频率的芯片,AI CPU的平均售价(ASP)将显著提升。例如,英伟达的144核Grace CPU定价可能在3000至4000美元之间。量价齐升之下,仅AI CPU市场的规模就将达到1250亿美元。2. 自上而下(Top-down)测算: 分析师参考了英伟达对2030年AI总潜在市场(3万亿至4万亿美元)的预测。推算出2030年将有约4000万个XPU出货。假设每个XPU的平均ASP提升至3000美元,结合1:1或2:1的CPU配比率,同样推导出AI CPU市场规模在1200亿至2000亿美元之间。分析师将未来的CPU市场划分为三个核心板块:传统服务器市场: 保持稳定增长,预计到2030年出货量约为4400万台。AI头节点(Head Nodes): 与GPU机架捆绑,主要负责任务编排和优化GPU利用率。AI独立机架(Standalone): 纯CPU服务器,专门用于处理代理式AI的工具调用和子代理并发任务。市场的饼做大了,关键是怎么分。分析师明确给出排名:ARM是服务器CPU侧最大受益者,其次是AMD,再次是英特尔——但三者均将受益。ARM:份额从15%冲向40-45%2025年,ARM架构在服务器CPU市场的单位份额约为15%。报告预计,到2030年,这一数字将升至40-45%;若以收入口径计算,由于AI CPU的平均售价(ASP)更高,ARM的收入份额将进一步达到50-55%。ARM的优势在哪里?该行援引专家观点:ARM架构功耗效率高出约30%,内存效率高出约20-30%,且凭借更小的核心设计,在延迟和成本上具备明显优势。更关键的是,英伟达Grace、AWS Graviton 5(192核)、谷歌等头部超大规模云厂商的自研CPU,几乎清一色采用ARM架构。该行预计,到2030年,ARM将占据头节点CPU市场75%以上的份额。但ARM也有短板。报告指出,ARM传统上是单线程架构,同步多线程(SMT)能力是近年才逐步开发的功能;在高核心数场景下,核心间干扰和软件兼容性问题依然是挑战;此外,生态系统成熟度仍有待提升,部分软件栈的完善可能要到2028年前后。基于上述判断,分析师将ARM的12个月目标价从175美元上调至245美元。截至报告发布前一日(5月4日),ARM股价报203.26美元,维持“买入”评级。AMD:高核心数+多线程,AI最佳拍档AMD的优势在于高核心数和多线程能力,这与智能体AI对CPU\"又要快、又要多\"的需求高度契合。报告援引AMD在2025年11月分析师日的表态:AMD预计服务器CPU市场将从2025年的260亿美元增长至2030年的约600亿美元,其中AI驱动的CPU将占2030年市场的约50%;AMD预计自身在总市场的份额将超过50%。分析师目前对AMD 2030年的EPS预测为25.27美元,若市场按预期演进,修正后的2030年EPS可达28.14美元,上行空间约+11%。英特尔:基础盘稳固,但追赶压力大英特尔的处境相对复杂。在传统服务器市场,x86架构仍将保持约85%的份额,英特尔在工具调用、存储优化等特定工作负载上仍具优势。但在AI头节点市场,英特尔的存在感正在被ARM快速压缩。瑞银指出,英特尔正寄望于\"Coral Rapids\"产品线来缩小与AMD和ARM的差距,但目前来看,AMD和ARM在AI CPU市场的定位更为有利。不过,英特尔也有一张独特的牌:PC端的溢出效应。随着智能体AI将更多任务推向本地设备执行(Anthropic的Claude Code已在采用这一策略),PC升级周期有望被催化,英特尔将从中受益。该行对英特尔2030年EPS的修正上行空间约为+7%,是三家中最低的。并非所有CPU都一样:延迟vs吞吐量的取舍报告还深入拆解了一个容易被忽视的细节:智能体AI对CPU的需求,并不是简单地“核越多越好”。超大规模云厂商在硬件选择上面临一个根本性的取舍:高核心数CPU:总吞吐量高,能效比好,但时钟频率低,延迟表现较差,且软件扩展能力有限(大多数软件无法高效利用数百个核心)低核心数、高频率CPU:延迟低、响应快,适合“头节点”角色(负责编排调度、优化GPU利用率)实际部署中,超大规模云厂商倾向于采用“头节点+大规模计算节点”的分层架构:前者负责低延迟的编排控制,后者负责高吞吐量的并行执行。这意味着,能提供宽泛SKU组合(覆盖不同核心数、频率和功耗档位)的厂商,比只押注单一“最强”配置的厂商更有竞争力。瑞银还指出,超大规模云厂商的采购决策核心指标不是峰值性能,而是每瓦特可处理的事务数(transactions per watt),内存配置是首要设计变量。云端还是边缘?一个悬而未决的变量分析师另外提出了一个值得关注的不确定因素:云端与边缘的计算分工。早期智能体部署几乎完全依赖云端,但越来越多的系统设计开始将计算推向本地设备——5到10个并行任务可以直接在本地文件和数据上运行,既减少了延迟,又节省了云端算力成本。瑞银援引专家估算:本地执行的扩展,可能将云端智能体工作负载所需的CPU容量减少约25%。这意味着,智能体AI对数据中心CPU的拉动倍数,最终可能从5-8倍压缩至约4倍。但与此同时,PC端的CPU需求将被同步拉升,AMD和英特尔均将受益。","news_type":1,"symbols_score_info":{"INTC":1.5,"AMD":1.5,"ARM":1.5,"AMUU":0.6,"ARMU":0.6,"AMDL":0.6,"AMDU":0.6,"AMDG":0.6,"ARMW":0.6,"DAMD":0.6,"INTW":0.6,"AMDD":0.6,"LINT":0.6,"AMDS":0.6,"ARMG":0.6,"GFS":1.5,"AMDW":0.6,"AMDY":0.6,"AMYY":0.6}},"isVote":1,"tweetType":1,"viewCount":1,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":27,"optionInvolvedFlag":false,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/561203096085760"}
精彩评论