取经
05-14 14:37
存储
@等也是一种策略 如何等在哪里等:
🔥 如果 AI 进入全民推理时代,DRAM 需求可能会超出所有人模型 现在市场几乎所有人都在讨论 GPU、HBM、算力中心。 但真正的问题可能是: 如果未来几十亿设备同时开始运行 AI inference, 整个世界的 memory capacity 够吗? 因为 AI 下一阶段的瓶颈,可能不再只是 compute。 而是 memory。 而且不是单一 memory。 而是完整的 memory hierarchy。 The Five Layers of Memory Near Memory: 最靠近 GPU 的 memory layer。 核心是超高带宽。 SK hynix Samsung $MU 这一层目前几乎由 HBM 主导。 因为 GPU 再强,如果 memory bandwidth 跟不上,算力也无法真正释放。 Main Memory: 很多人可能还没意识到,这层未来的重要性正在快速上升。 SK hynix Samsung CMXT $MU 当 AI 从训练进入全民 inference 时代之后,系统需要的开始不只是速度。 而是巨大的 DRAM capacity。 未来无论是 AI PC、AI 手机、企业 Copilot、Agent、机器人、自动驾驶、边缘 AI,背后都会不断推高 memory usage。 GPU 越强,越需要更大的 memory pool 去喂数据。 否则算力会被浪费。 而市场现在可能仍然用“传统周期股”的方式在看 DRAM。 但 AI 可能正在把一部分 DRAM 需求,慢慢转变成 AI infrastructure demand。 Expansion Memory: 当模型越来越大之后,memory 开始进入“扩展能力”竞争。 SK hynix Samsung $MU $ALAB $MRVL $MCHP $RMBS 这一层已经不只是 memory 本身。 而是: memory 如何连接、同步、扩展、共享。 未来大型 AI cluster 的竞争,很可能会从 GPU 数量竞争,进入 memory fabric 与 interconnect 架构竞争。 这也是为什么越来越多人开始关注: CXL、memory pooling、high-speed interconnect。 Contexted Memory: AI 系统真正落地之后,开始越来越依赖 context retrieval。 SK hynix Samsung Kioxia $MU $WDC $SNDK $SIMO 这一层进入 NAND、SSD、controller、storage pipeline 的世界。 因为未来很多 AI 能力,本质上取决于: 能不能快速读取正确的数据。 尤其 RAG、Agent、企业 AI 普及之后,storage latency 与 context access 会越来越关键。 Data Lakes: 很多人低估了 AI 最底层的 infrastructure。 长期数据存储。 $STX $WDC $DELL $NTAP $P $HPE $IBM 因为没有 data lake,就没有 AI。 训练数据、 企业数据库、 向量数据库、 长期知识库、 AI retrieval system, 最终都需要 storage infrastructure。 而 AI 越普及,全球数据量只会继续指数级增长。 真正有意思的地方在于: 现在华尔街仍然习惯把这些公司拆开估值。 但 AI infrastructure 正在越来越像: 一个完整的 memory ecosystem。 GPU 只是入口。 真正长期决定 AI 上限的, 可能是整个 memory stack 能不能跟上。
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":564044886190016,"tweetId":"564044886190016","gmtCreate":1778740662529,"gmtModify":1778740664992,"author":{"id":239838651495954,"idStr":"239838651495954","authorId":239838651495954,"authorIdStr":"239838651495954","name":"取经","avatar":"https://static.tigerbbs.com/d1252d45e5b837d9a288971f71f596d8","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"hat":"https://static.tigerbbs.com/b0a2963eb37c60c5d6d4a8dbcd266952","crmLevel":9,"crmLevelSwitch":1,"currentWearingBadge":{"badgeId":"c16da968d58248f48262c1f464e9d0fa-1","templateUuid":"c16da968d58248f48262c1f464e9d0fa","name":"2025元宝x2","description":"2025年度投资收益达成20万美金","bigImgUrl":"https://static.tigerbbs.com/61f6a89c5fb5badafb9db45c855eff22","smallImgUrl":"https://static.tigerbbs.com/61f6a89c5fb5badafb9db45c855eff22","redirectLinkEnabled":0,"hasAllocated":1,"isWearing":1,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2026.01.29","individualDisplayEnabled":0},"individualDisplayBadges":[],"wearingBadges":[{"badgeId":"c16da968d58248f48262c1f464e9d0fa-1","name":"2025元宝x2","description":"2025年度投资收益达成20万美金","smallImgUrl":"https://static.tigerbbs.com/61f6a89c5fb5badafb9db45c855eff22","bigImgUrl":"https://static.tigerbbs.com/61f6a89c5fb5badafb9db45c855eff22","isScarce":0,"effectEnabled":0,"redirectLinkEnabled":0,"redirectLinkValidityFrom":0,"redirectLinkValidityTo":9223372036854776000}],"fanSize":268,"starInvestorFlag":true,"fullDisclosureFlag":false,"starInvestorFollowerNum":50,"starInvestorOrderShareNum":58,"userFollowInvestorFlag":false,"orderNotificationFlag":false,"showRor":false,"investmentPhilosophy":"向各位虎友取经","winRationPercentage":43.113772,"tradeVolumeEst":0},"themes":[],"images":[],"coverImages":[],"title":"","html":"<html><head></head><body><p>存储</p></body></html>","htmlText":"<html><head></head><body><p>存储</p></body></html>","text":"存储","highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/564044886190016","repostId":564036990342928,"repostType":1,"repost":{"magic":2,"id":564036990342928,"tweetId":"564036990342928","gmtCreate":1778738733490,"gmtModify":1778738768157,"author":{"id":4192713077052572,"idStr":"4192713077052572","authorId":4192713077052572,"authorIdStr":"4192713077052572","name":"等也是一种策略 如何等在哪里等","avatar":"https://static.tigerbbs.com/120755ba038fdcb70c2bb1d2816ad8f1","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":4,"crmLevelSwitch":1,"individualDisplayBadges":[],"wearingBadges":[],"fanSize":659,"starInvestorFlag":false},"themes":[],"images":[{"img":"https://static.tigerbbs.com/73a97f830830232478f08610d29c9d87","width":"1828","height":"890"}],"coverImages":[{"img":"https://static.tigerbbs.com/73a97f830830232478f08610d29c9d87","width":"1828","height":"890"}],"title":"","html":"<html><head></head><body><p>🔥 如果 AI 进入全民推理时代,DRAM 需求可能会超出所有人模型</p>\n<p>现在市场几乎所有人都在讨论 GPU、HBM、算力中心。</p>\n<p>但真正的问题可能是:</p>\n<p>如果未来几十亿设备同时开始运行 AI inference,</p>\n<p>整个世界的 memory capacity 够吗?</p>\n<p>因为 AI 下一阶段的瓶颈,可能不再只是 compute。</p>\n<p>而是 memory。</p>\n<p>而且不是单一 memory。</p>\n<p>而是完整的 memory hierarchy。</p>\n<p>The Five Layers of Memory</p>\n<p>Near Memory:</p>\n<p>最靠近 GPU 的 memory layer。</p>\n<p>核心是超高带宽。</p>\n<p>SK hynix</p>\n<p>Samsung</p>\n<p>$MU</p>\n<p>这一层目前几乎由 HBM 主导。</p>\n<p>因为 GPU 再强,如果 memory bandwidth 跟不上,算力也无法真正释放。</p>\n<p>Main Memory:</p>\n<p>很多人可能还没意识到,这层未来的重要性正在快速上升。</p>\n<p>SK hynix</p>\n<p>Samsung</p>\n<p>CMXT</p>\n<p>$MU</p>\n<p>当 AI 从训练进入全民 inference 时代之后,系统需要的开始不只是速度。</p>\n<p>而是巨大的 DRAM capacity。</p>\n<p>未来无论是 AI PC、AI 手机、企业 Copilot、Agent、机器人、自动驾驶、边缘 AI,背后都会不断推高 memory usage。</p>\n<p>GPU 越强,越需要更大的 memory pool 去喂数据。</p>\n<p>否则算力会被浪费。</p>\n<p>而市场现在可能仍然用“传统周期股”的方式在看 DRAM。</p>\n<p>但 AI 可能正在把一部分 DRAM 需求,慢慢转变成 AI infrastructure demand。</p>\n<p>Expansion Memory:</p>\n<p>当模型越来越大之后,memory 开始进入“扩展能力”竞争。</p>\n<p>SK hynix</p>\n<p>Samsung</p>\n<p>$MU</p>\n<p>$ALAB</p>\n<p>$MRVL</p>\n<p>$MCHP</p>\n<p>$RMBS</p>\n<p>这一层已经不只是 memory 本身。</p>\n<p>而是:</p>\n<p>memory 如何连接、同步、扩展、共享。</p>\n<p>未来大型 AI cluster 的竞争,很可能会从 GPU 数量竞争,进入 memory fabric 与 interconnect 架构竞争。</p>\n<p>这也是为什么越来越多人开始关注:</p>\n<p>CXL、memory pooling、high-speed interconnect。</p>\n<p>Contexted Memory:</p>\n<p>AI 系统真正落地之后,开始越来越依赖 context retrieval。</p>\n<p>SK hynix</p>\n<p>Samsung</p>\n<p>Kioxia</p>\n<p>$MU</p>\n<p>$WDC</p>\n<p>$SNDK</p>\n<p>$SIMO</p>\n<p>这一层进入 NAND、SSD、controller、storage pipeline 的世界。</p>\n<p>因为未来很多 AI 能力,本质上取决于:</p>\n<p>能不能快速读取正确的数据。</p>\n<p>尤其 RAG、Agent、企业 AI 普及之后,storage latency 与 context access 会越来越关键。</p>\n<p>Data Lakes:</p>\n<p>很多人低估了 AI 最底层的 infrastructure。</p>\n<p>长期数据存储。</p>\n<p>$STX</p>\n<p>$WDC</p>\n<p>$DELL</p>\n<p>$NTAP</p>\n<p>$P</p>\n<p>$HPE</p>\n<p>$IBM</p>\n<p>因为没有 data lake,就没有 AI。</p>\n<p>训练数据、</p>\n<p>企业数据库、</p>\n<p>向量数据库、</p>\n<p>长期知识库、</p>\n<p>AI retrieval system,</p>\n<p>最终都需要 storage infrastructure。</p>\n<p>而 AI 越普及,全球数据量只会继续指数级增长。</p>\n<p>真正有意思的地方在于:</p>\n<p>现在华尔街仍然习惯把这些公司拆开估值。</p>\n<p>但 AI infrastructure 正在越来越像:</p>\n<p>一个完整的 memory ecosystem。</p>\n<p>GPU 只是入口。</p>\n<p>真正长期决定 AI 上限的,</p>\n<p>可能是整个 memory stack 能不能跟上。</p><img src=\"https://static.tigerbbs.com/73a97f830830232478f08610d29c9d87\" tg-width=\"1828\" tg-height=\"890\"></body></html>","htmlText":"<html><head></head><body><p>🔥 如果 AI 进入全民推理时代,DRAM 需求可能会超出所有人模型</p>\n<p>现在市场几乎所有人都在讨论 GPU、HBM、算力中心。</p>\n<p>但真正的问题可能是:</p>\n<p>如果未来几十亿设备同时开始运行 AI inference,</p>\n<p>整个世界的 memory capacity 够吗?</p>\n<p>因为 AI 下一阶段的瓶颈,可能不再只是 compute。</p>\n<p>而是 memory。</p>\n<p>而且不是单一 memory。</p>\n<p>而是完整的 memory hierarchy。</p>\n<p>The Five Layers of Memory</p>\n<p>Near Memory:</p>\n<p>最靠近 GPU 的 memory layer。</p>\n<p>核心是超高带宽。</p>\n<p>SK hynix</p>\n<p>Samsung</p>\n<p>$MU</p>\n<p>这一层目前几乎由 HBM 主导。</p>\n<p>因为 GPU 再强,如果 memory bandwidth 跟不上,算力也无法真正释放。</p>\n<p>Main Memory:</p>\n<p>很多人可能还没意识到,这层未来的重要性正在快速上升。</p>\n<p>SK hynix</p>\n<p>Samsung</p>\n<p>CMXT</p>\n<p>$MU</p>\n<p>当 AI 从训练进入全民 inference 时代之后,系统需要的开始不只是速度。</p>\n<p>而是巨大的 DRAM capacity。</p>\n<p>未来无论是 AI PC、AI 手机、企业 Copilot、Agent、机器人、自动驾驶、边缘 AI,背后都会不断推高 memory usage。</p>\n<p>GPU 越强,越需要更大的 memory pool 去喂数据。</p>\n<p>否则算力会被浪费。</p>\n<p>而市场现在可能仍然用“传统周期股”的方式在看 DRAM。</p>\n<p>但 AI 可能正在把一部分 DRAM 需求,慢慢转变成 AI infrastructure demand。</p>\n<p>Expansion Memory:</p>\n<p>当模型越来越大之后,memory 开始进入“扩展能力”竞争。</p>\n<p>SK hynix</p>\n<p>Samsung</p>\n<p>$MU</p>\n<p>$ALAB</p>\n<p>$MRVL</p>\n<p>$MCHP</p>\n<p>$RMBS</p>\n<p>这一层已经不只是 memory 本身。</p>\n<p>而是:</p>\n<p>memory 如何连接、同步、扩展、共享。</p>\n<p>未来大型 AI cluster 的竞争,很可能会从 GPU 数量竞争,进入 memory fabric 与 interconnect 架构竞争。</p>\n<p>这也是为什么越来越多人开始关注:</p>\n<p>CXL、memory pooling、high-speed interconnect。</p>\n<p>Contexted Memory:</p>\n<p>AI 系统真正落地之后,开始越来越依赖 context retrieval。</p>\n<p>SK hynix</p>\n<p>Samsung</p>\n<p>Kioxia</p>\n<p>$MU</p>\n<p>$WDC</p>\n<p>$SNDK</p>\n<p>$SIMO</p>\n<p>这一层进入 NAND、SSD、controller、storage pipeline 的世界。</p>\n<p>因为未来很多 AI 能力,本质上取决于:</p>\n<p>能不能快速读取正确的数据。</p>\n<p>尤其 RAG、Agent、企业 AI 普及之后,storage latency 与 context access 会越来越关键。</p>\n<p>Data Lakes:</p>\n<p>很多人低估了 AI 最底层的 infrastructure。</p>\n<p>长期数据存储。</p>\n<p>$STX</p>\n<p>$WDC</p>\n<p>$DELL</p>\n<p>$NTAP</p>\n<p>$P</p>\n<p>$HPE</p>\n<p>$IBM</p>\n<p>因为没有 data lake,就没有 AI。</p>\n<p>训练数据、</p>\n<p>企业数据库、</p>\n<p>向量数据库、</p>\n<p>长期知识库、</p>\n<p>AI retrieval system,</p>\n<p>最终都需要 storage infrastructure。</p>\n<p>而 AI 越普及,全球数据量只会继续指数级增长。</p>\n<p>真正有意思的地方在于:</p>\n<p>现在华尔街仍然习惯把这些公司拆开估值。</p>\n<p>但 AI infrastructure 正在越来越像:</p>\n<p>一个完整的 memory ecosystem。</p>\n<p>GPU 只是入口。</p>\n<p>真正长期决定 AI 上限的,</p>\n<p>可能是整个 memory stack 能不能跟上。</p><img src=\"https://static.tigerbbs.com/73a97f830830232478f08610d29c9d87\" tg-width=\"1828\" tg-height=\"890\"></body></html>","text":"🔥 如果 AI 进入全民推理时代,DRAM 需求可能会超出所有人模型 现在市场几乎所有人都在讨论 GPU、HBM、算力中心。 但真正的问题可能是: 如果未来几十亿设备同时开始运行 AI inference, 整个世界的 memory capacity 够吗? 因为 AI 下一阶段的瓶颈,可能不再只是 compute。 而是 memory。 而且不是单一 memory。 而是完整的 memory hierarchy。 The Five Layers of Memory Near Memory: 最靠近 GPU 的 memory layer。 核心是超高带宽。 SK hynix Samsung $MU 这一层目前几乎由 HBM 主导。 因为 GPU 再强,如果 memory bandwidth 跟不上,算力也无法真正释放。 Main Memory: 很多人可能还没意识到,这层未来的重要性正在快速上升。 SK hynix Samsung CMXT $MU 当 AI 从训练进入全民 inference 时代之后,系统需要的开始不只是速度。 而是巨大的 DRAM capacity。 未来无论是 AI PC、AI 手机、企业 Copilot、Agent、机器人、自动驾驶、边缘 AI,背后都会不断推高 memory usage。 GPU 越强,越需要更大的 memory pool 去喂数据。 否则算力会被浪费。 而市场现在可能仍然用“传统周期股”的方式在看 DRAM。 但 AI 可能正在把一部分 DRAM 需求,慢慢转变成 AI infrastructure demand。 Expansion Memory: 当模型越来越大之后,memory 开始进入“扩展能力”竞争。 SK hynix Samsung $MU $ALAB $MRVL $MCHP $RMBS 这一层已经不只是 memory 本身。 而是: memory 如何连接、同步、扩展、共享。 未来大型 AI cluster 的竞争,很可能会从 GPU 数量竞争,进入 memory fabric 与 interconnect 架构竞争。 这也是为什么越来越多人开始关注: CXL、memory pooling、high-speed interconnect。 Contexted Memory: AI 系统真正落地之后,开始越来越依赖 context retrieval。 SK hynix Samsung Kioxia $MU $WDC $SNDK $SIMO 这一层进入 NAND、SSD、controller、storage pipeline 的世界。 因为未来很多 AI 能力,本质上取决于: 能不能快速读取正确的数据。 尤其 RAG、Agent、企业 AI 普及之后,storage latency 与 context access 会越来越关键。 Data Lakes: 很多人低估了 AI 最底层的 infrastructure。 长期数据存储。 $STX $WDC $DELL $NTAP $P $HPE $IBM 因为没有 data lake,就没有 AI。 训练数据、 企业数据库、 向量数据库、 长期知识库、 AI retrieval system, 最终都需要 storage infrastructure。 而 AI 越普及,全球数据量只会继续指数级增长。 真正有意思的地方在于: 现在华尔街仍然习惯把这些公司拆开估值。 但 AI infrastructure 正在越来越像: 一个完整的 memory ecosystem。 GPU 只是入口。 真正长期决定 AI 上限的, 可能是整个 memory stack 能不能跟上。","highlighted":1,"essential":1,"paper":1,"link":"https://laohu8.com/post/564036990342928","repostId":0,"isVote":1,"tweetType":1,"commentLimit":10,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":1902,"optionInvolvedFlag":false,"xxTargetLangEnum":"ZH_CN"},"isVote":1,"tweetType":1,"viewCount":9,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":4,"optionInvolvedFlag":false,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/564044886190016"}
精彩评论