社区
首页
集团介绍
社区
资讯
行情
学堂
TigerAI
登录
注册
喵猎人
无
IP属地:北京
+关注
帖子 · 27
帖子 · 27
关注 · 0
关注 · 0
粉丝 · 0
粉丝 · 0
喵猎人
喵猎人
·
2025-03-06
英伟达的AI时代:数据中心芯片需求还能火多久?
从游戏到AI,英伟达的华丽转身 提起英伟达(),很多人第一反应可能是它那块让游戏玩家疯狂的显卡——GPU。但这几年,英伟达已经不满足于只做游戏界的“幕后英雄”,它把目光投向了人工智能(AI),尤其是数据中心芯片市场。如今,AI热潮席卷全球,英伟达的GPU成了支撑这场革命的“发动机”,特别是那些能聊天、写文章的大型语言模型(LLM,Large Language Model,比如ChatGPT这样的AI系统),全靠它提供海量算力。 问题是,这股热潮能持续多久?LLM预训练需要巨额算力,这让英伟达赚得盆满钵满,可未来需求会不会掉头向下?训练总有结束的时候吧,到那时英伟达的芯片还卖得动吗? 还有,AI推理——也就是用训练好的模型干活儿——会不会给英伟达带来新的增长点? 本文就来聊聊这些,顺便预测一下英伟达的股票走势。 LLM预训练:英伟达的算力“提款机” 先说说LLM预训练,这是个啥?简单讲,就是让AI学会说话的第一步。比如ChatGPT这样的模型,得先喂它海量的文本数据——新闻、书籍、网页啥都行——让它从中摸索语言规律。这个过程叫预训练,需要的计算能力(简称算力)多得吓人。英伟达的GPU因为擅长并行计算(一次处理一大堆数据),成了这个领域的“扛把子”。 有多吓人呢?CoreWeave(一家云服务公司)的博客提到,到2025年,一个LLM训练集群可能需要10万块GPU[1]。这还不算后续的优化和调整。拿OpenAI的GPT系列举例:GPT-1(第一代模型)有1.17亿个参数(模型内部的调节开关),到了GPT-3就飙到1750亿,GPT-4更是夸张[2]。参数越多,算力需求就越大,英伟达的芯片自然卖得欢。 现在,这块市场是英伟达的“提款机”。但未来呢?这种算力需求还能不能一直火下去?答案是:大概率能,但得看几个关键点。 LLM预训练有“终点”吗?芯片需求会崩吗? 你可能好
看
5,031
回复
评论
点赞
1
编组 21备份 2
分享
举报
英伟达的AI时代:数据中心芯片需求还能火多久?
喵猎人
喵猎人
·
2025-03-03
假新闻满天飞
非常抱歉,此主贴已删除
看
2,314
回复
评论
点赞
2
编组 21备份 2
分享
举报
喵猎人
喵猎人
·
2025-02-13
这种下三滥媒体的逼吹牛的文章就不用发了
非常抱歉,此主贴已删除
看
2,519
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
喵猎人
喵猎人
·
2025-02-11
华尔街见闻?伪装成国外媒体的国内下流野鸡媒体
非常抱歉,此主贴已删除
看
2,290
回复
评论
点赞
10
编组 21备份 2
分享
举报
喵猎人
喵猎人
·
2025-02-06
👅
非常抱歉,此主贴已删除
看
1,619
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
喵猎人
喵猎人
·
2025-02-05
台积电有足够的定价权,让谁加的关税谁承担。
非常抱歉,此主贴已删除
看
1,691
回复
评论
点赞
1
编组 21备份 2
分享
举报
喵猎人
喵猎人
·
2025-01-31
这几天趁着热乎劲,研究了一下DeepSeek。大概有个认知,跟大家分享一下。 简单说,DeepSeek发明了一种针对特殊应用场景的AI软件框架,可以单独训练一个针对性的边缘AI,可以本地化部署,但需要提前用中心化的大模型AI进行训练。 DeepSeek先让Chat-GPT给他一个答题的最大可能性方向。然后再通过输入的数据在这个方向上推导逻辑过程。这样当然就节省算力了! 当然也不是完全没有创新,因为边缘系统对问题场景的运算效率很高,因为有很高的针对性,这是大模型无法实现的。大模型会“培训”一套机制给边缘AI(就像给一套模拟试题集,然后给模拟考试),一旦学会后,边缘AI就可以解答具体情景里的问题了。 这个过程有点像学开车,一开始新手学车需要大脑充分参与训练,等学会了以后,大脑对开车这件事的参与度就很低了,比如你可以边开车边聊天。“肌肉记忆”下的简单感官反应,就能实现开车的大部分过程。在这里,大脑就是GPT这种大模型,身体手眼脚等会在培训中形成一个针对开车这件事的“肌肉记忆”,就是具体的AI软件,培训形成这个软件的机制框架就是DeepSeek。这个反应很快不太需要大脑参与的肌肉记忆,需要大模型深度参与的“提前”训练。一旦训练完成,使用次数越多,远端大模型的参与就会越少,甚至最终不用参与。 这种方式的缺点是具体某个边缘AI软件只能解决有限的一类应用场景。比如可以帮助医生快速诊断开处方,但不能解决厨师的菜谱问题。你想让他学新东西,恐怕就要花钱升级硬件了。优点是速度快省钱,但不可能什么都懂。 将来的格局可能是这两种AI都存在。边缘AI针对性强,便捷便宜,PC上就能部署,但依赖大模型AI的培训。所以预计会有一轮PC终端设备的硬件升级,目前的终端设备配置普遍还是有些低的。这就像2010年前后的智能手机普及浪潮。 如果未来果真如此,利好的公司会是哪些呢
看
1.05万
回复
8
点赞
3
编组 21备份 2
分享
举报
喵猎人
喵猎人
·
2025-01-30
还是小宝说的对[捂脸]
看
1,750
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
喵猎人
喵猎人
·
2024-10-08
$上证指数(000001.SH)$
看
1,860
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
喵猎人
喵猎人
·
2021-03-02
危机和杠杆的部分讲得很精彩,后面关于改开,有待观察
非常抱歉,此主贴已删除
看
3,467
回复
评论
点赞
点赞
编组 21备份 2
分享
举报
加载更多
热议股票
{"i18n":{"language":"zh_CN"},"isCurrentUser":false,"userPageInfo":{"id":"3493026903540968","uuid":"3493026903540968","gmtCreate":1529932882323,"gmtModify":1619475629620,"name":"喵猎人","pinyin":"mlrmiaolieren","introduction":"","introductionEn":null,"signature":"无","avatar":"https://static.tigerbbs.com/58473a0d1b4fb322d1a77e8cbfb78197","hat":null,"hatId":null,"hatName":null,"vip":1,"status":2,"fanSize":13,"headSize":86,"tweetSize":27,"questionSize":0,"limitLevel":900,"accountStatus":4,"level":{"id":3,"name":"书生虎","nameTw":"書生虎","represent":"努力向上","factor":"发布10条非转发主帖,其中5条获得他人回复或点赞","iconColor":"3C9E83","bgColor":"A2F1D9"},"themeCounts":7,"badgeCounts":0,"badges":[],"moderator":false,"superModerator":false,"manageSymbols":null,"badgeLevel":null,"boolIsFan":false,"boolIsHead":false,"favoriteSize":38,"symbols":null,"coverImage":null,"realNameVerified":null,"userBadges":[{"badgeId":"e50ce593bb40487ebfb542ca54f6a561-4","templateUuid":"e50ce593bb40487ebfb542ca54f6a561","name":"明星虎友","description":"加入老虎社区2000天","bigImgUrl":"https://static.tigerbbs.com/dddf24b906c7011de2617d4fb3f76987","smallImgUrl":"https://static.tigerbbs.com/53d58ad32c97254c6f74db8b97e6ec49","grayImgUrl":"https://static.tigerbbs.com/6304700d92ad91c7a33e2e92ec32ecc1","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":1,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2023.12.17","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1001},{"badgeId":"228c86a078844d74991fff2b7ab2428d-2","templateUuid":"228c86a078844d74991fff2b7ab2428d","name":"投资总监虎","description":"证券账户累计交易金额达到30万美元","bigImgUrl":"https://static.tigerbbs.com/9d20b23f1b6335407f882bc5c2ad12c0","smallImgUrl":"https://static.tigerbbs.com/ada3b4533518ace8404a3f6dd192bd29","grayImgUrl":"https://static.tigerbbs.com/177f283ba21d1c077054dac07f88f3bd","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2023.07.14","exceedPercentage":"80.02%","individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1101},{"badgeId":"02aa7f16703b4ce4ace6f1a7665789cc-2","templateUuid":"02aa7f16703b4ce4ace6f1a7665789cc","name":"知识探索家","description":"观看学堂课程满20节","bigImgUrl":"https://static.tigerbbs.com/63cc10a4789c3eaa019b225a55136cf9","smallImgUrl":"https://static.tigerbbs.com/b1f0cbf3ae1b0a4593ddb3434df74ce0","grayImgUrl":null,"redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2022.08.05","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":2006},{"badgeId":"976c19eed35f4cd78f17501c2e99ef37-1","templateUuid":"976c19eed35f4cd78f17501c2e99ef37","name":"博闻投资者","description":"累计交易超过10只正股","bigImgUrl":"https://static.tigerbbs.com/e74cc24115c4fbae6154ec1b1041bf47","smallImgUrl":"https://static.tigerbbs.com/d48265cbfd97c57f9048db29f22227b0","grayImgUrl":"https://static.tigerbbs.com/76c6d6898b073c77e1c537ebe9ac1c57","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1102},{"badgeId":"518b5610c3e8410da5cfad115e4b0f5a-1","templateUuid":"518b5610c3e8410da5cfad115e4b0f5a","name":"实盘交易者","description":"完成一笔实盘交易","bigImgUrl":"https://static.tigerbbs.com/2e08a1cc2087a1de93402c2c290fa65b","smallImgUrl":"https://static.tigerbbs.com/4504a6397ce1137932d56e5f4ce27166","grayImgUrl":"https://static.tigerbbs.com/4b22c79415b4cd6e3d8ebc4a0fa32604","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100},{"badgeId":"35ec162348d5460f88c959321e554969-2","templateUuid":"35ec162348d5460f88c959321e554969","name":"宗师交易员","description":"证券或期货账户累计交易次数达到100次","bigImgUrl":"https://static.tigerbbs.com/ad22cfbe2d05aa393b18e9226e4b0307","smallImgUrl":"https://static.tigerbbs.com/36702e6ff3ffe46acafee66cc85273ca","grayImgUrl":"https://static.tigerbbs.com/d52eb88fa385cf5abe2616ed63781765","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":0,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2021.12.21","exceedPercentage":"80.74%","individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1100}],"userBadgeCount":6,"currentWearingBadge":{"badgeId":"e50ce593bb40487ebfb542ca54f6a561-4","templateUuid":"e50ce593bb40487ebfb542ca54f6a561","name":"明星虎友","description":"加入老虎社区2000天","bigImgUrl":"https://static.tigerbbs.com/dddf24b906c7011de2617d4fb3f76987","smallImgUrl":"https://static.tigerbbs.com/53d58ad32c97254c6f74db8b97e6ec49","grayImgUrl":"https://static.tigerbbs.com/6304700d92ad91c7a33e2e92ec32ecc1","redirectLinkEnabled":0,"redirectLink":null,"hasAllocated":1,"isWearing":1,"stamp":null,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2023.12.17","exceedPercentage":null,"individualDisplayEnabled":0,"backgroundColor":null,"fontColor":null,"individualDisplaySort":0,"categoryType":1001},"individualDisplayBadges":null,"crmLevel":2,"crmLevelSwitch":0,"location":"北京","starInvestorFollowerNum":0,"starInvestorFlag":false,"starInvestorOrderShareNum":0,"subscribeStarInvestorNum":1,"ror":null,"winRationPercentage":null,"showRor":false,"investmentPhilosophy":null,"starInvestorSubscribeFlag":false},"page":1,"watchlist":null,"tweetList":[{"id":410571437580488,"gmtCreate":1741265956368,"gmtModify":1741266868829,"author":{"id":"3493026903540968","authorId":"3493026903540968","name":"喵猎人","avatar":"https://static.tigerbbs.com/58473a0d1b4fb322d1a77e8cbfb78197","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3493026903540968","authorIdStr":"3493026903540968"},"themes":[],"title":"英伟达的AI时代:数据中心芯片需求还能火多久?","htmlText":"从游戏到AI,英伟达的华丽转身 提起英伟达(),很多人第一反应可能是它那块让游戏玩家疯狂的显卡——GPU。但这几年,英伟达已经不满足于只做游戏界的“幕后英雄”,它把目光投向了人工智能(AI),尤其是数据中心芯片市场。如今,AI热潮席卷全球,英伟达的GPU成了支撑这场革命的“发动机”,特别是那些能聊天、写文章的大型语言模型(LLM,Large Language Model,比如ChatGPT这样的AI系统),全靠它提供海量算力。 问题是,这股热潮能持续多久?LLM预训练需要巨额算力,这让英伟达赚得盆满钵满,可未来需求会不会掉头向下?训练总有结束的时候吧,到那时英伟达的芯片还卖得动吗? 还有,AI推理——也就是用训练好的模型干活儿——会不会给英伟达带来新的增长点? 本文就来聊聊这些,顺便预测一下英伟达的股票走势。 LLM预训练:英伟达的算力“提款机” 先说说LLM预训练,这是个啥?简单讲,就是让AI学会说话的第一步。比如ChatGPT这样的模型,得先喂它海量的文本数据——新闻、书籍、网页啥都行——让它从中摸索语言规律。这个过程叫预训练,需要的计算能力(简称算力)多得吓人。英伟达的GPU因为擅长并行计算(一次处理一大堆数据),成了这个领域的“扛把子”。 有多吓人呢?CoreWeave(一家云服务公司)的博客提到,到2025年,一个LLM训练集群可能需要10万块GPU[1]。这还不算后续的优化和调整。拿OpenAI的GPT系列举例:GPT-1(第一代模型)有1.17亿个参数(模型内部的调节开关),到了GPT-3就飙到1750亿,GPT-4更是夸张[2]。参数越多,算力需求就越大,英伟达的芯片自然卖得欢。 现在,这块市场是英伟达的“提款机”。但未来呢?这种算力需求还能不能一直火下去?答案是:大概率能,但得看几个关键点。 LLM预训练有“终点”吗?芯片需求会崩吗? 你可能好","listText":"从游戏到AI,英伟达的华丽转身 提起英伟达(),很多人第一反应可能是它那块让游戏玩家疯狂的显卡——GPU。但这几年,英伟达已经不满足于只做游戏界的“幕后英雄”,它把目光投向了人工智能(AI),尤其是数据中心芯片市场。如今,AI热潮席卷全球,英伟达的GPU成了支撑这场革命的“发动机”,特别是那些能聊天、写文章的大型语言模型(LLM,Large Language Model,比如ChatGPT这样的AI系统),全靠它提供海量算力。 问题是,这股热潮能持续多久?LLM预训练需要巨额算力,这让英伟达赚得盆满钵满,可未来需求会不会掉头向下?训练总有结束的时候吧,到那时英伟达的芯片还卖得动吗? 还有,AI推理——也就是用训练好的模型干活儿——会不会给英伟达带来新的增长点? 本文就来聊聊这些,顺便预测一下英伟达的股票走势。 LLM预训练:英伟达的算力“提款机” 先说说LLM预训练,这是个啥?简单讲,就是让AI学会说话的第一步。比如ChatGPT这样的模型,得先喂它海量的文本数据——新闻、书籍、网页啥都行——让它从中摸索语言规律。这个过程叫预训练,需要的计算能力(简称算力)多得吓人。英伟达的GPU因为擅长并行计算(一次处理一大堆数据),成了这个领域的“扛把子”。 有多吓人呢?CoreWeave(一家云服务公司)的博客提到,到2025年,一个LLM训练集群可能需要10万块GPU[1]。这还不算后续的优化和调整。拿OpenAI的GPT系列举例:GPT-1(第一代模型)有1.17亿个参数(模型内部的调节开关),到了GPT-3就飙到1750亿,GPT-4更是夸张[2]。参数越多,算力需求就越大,英伟达的芯片自然卖得欢。 现在,这块市场是英伟达的“提款机”。但未来呢?这种算力需求还能不能一直火下去?答案是:大概率能,但得看几个关键点。 LLM预训练有“终点”吗?芯片需求会崩吗? 你可能好","text":"从游戏到AI,英伟达的华丽转身 提起英伟达(),很多人第一反应可能是它那块让游戏玩家疯狂的显卡——GPU。但这几年,英伟达已经不满足于只做游戏界的“幕后英雄”,它把目光投向了人工智能(AI),尤其是数据中心芯片市场。如今,AI热潮席卷全球,英伟达的GPU成了支撑这场革命的“发动机”,特别是那些能聊天、写文章的大型语言模型(LLM,Large Language Model,比如ChatGPT这样的AI系统),全靠它提供海量算力。 问题是,这股热潮能持续多久?LLM预训练需要巨额算力,这让英伟达赚得盆满钵满,可未来需求会不会掉头向下?训练总有结束的时候吧,到那时英伟达的芯片还卖得动吗? 还有,AI推理——也就是用训练好的模型干活儿——会不会给英伟达带来新的增长点? 本文就来聊聊这些,顺便预测一下英伟达的股票走势。 LLM预训练:英伟达的算力“提款机” 先说说LLM预训练,这是个啥?简单讲,就是让AI学会说话的第一步。比如ChatGPT这样的模型,得先喂它海量的文本数据——新闻、书籍、网页啥都行——让它从中摸索语言规律。这个过程叫预训练,需要的计算能力(简称算力)多得吓人。英伟达的GPU因为擅长并行计算(一次处理一大堆数据),成了这个领域的“扛把子”。 有多吓人呢?CoreWeave(一家云服务公司)的博客提到,到2025年,一个LLM训练集群可能需要10万块GPU[1]。这还不算后续的优化和调整。拿OpenAI的GPT系列举例:GPT-1(第一代模型)有1.17亿个参数(模型内部的调节开关),到了GPT-3就飙到1750亿,GPT-4更是夸张[2]。参数越多,算力需求就越大,英伟达的芯片自然卖得欢。 现在,这块市场是英伟达的“提款机”。但未来呢?这种算力需求还能不能一直火下去?答案是:大概率能,但得看几个关键点。 LLM预训练有“终点”吗?芯片需求会崩吗? 你可能好","images":[],"top":1,"highlighted":1,"essential":1,"paper":2,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/410571437580488","isVote":1,"tweetType":1,"viewCount":5031,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":409494575473152,"gmtCreate":1740984432540,"gmtModify":1740984434489,"author":{"id":"3493026903540968","authorId":"3493026903540968","name":"喵猎人","avatar":"https://static.tigerbbs.com/58473a0d1b4fb322d1a77e8cbfb78197","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3493026903540968","authorIdStr":"3493026903540968"},"themes":[],"htmlText":"假新闻满天飞","listText":"假新闻满天飞","text":"假新闻满天飞","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":2,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/409494575473152","repostId":"2516511645","repostType":2,"isVote":1,"tweetType":1,"viewCount":2314,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":402897364250800,"gmtCreate":1739382275267,"gmtModify":1739382277379,"author":{"id":"3493026903540968","authorId":"3493026903540968","name":"喵猎人","avatar":"https://static.tigerbbs.com/58473a0d1b4fb322d1a77e8cbfb78197","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3493026903540968","authorIdStr":"3493026903540968"},"themes":[],"htmlText":"这种下三滥媒体的逼吹牛的文章就不用发了","listText":"这种下三滥媒体的逼吹牛的文章就不用发了","text":"这种下三滥媒体的逼吹牛的文章就不用发了","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/402897364250800","repostId":"2510371925","repostType":4,"isVote":1,"tweetType":1,"viewCount":2519,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":402475756646832,"gmtCreate":1739278930444,"gmtModify":1739278932161,"author":{"id":"3493026903540968","authorId":"3493026903540968","name":"喵猎人","avatar":"https://static.tigerbbs.com/58473a0d1b4fb322d1a77e8cbfb78197","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3493026903540968","authorIdStr":"3493026903540968"},"themes":[],"htmlText":"华尔街见闻?伪装成国外媒体的国内下流野鸡媒体","listText":"华尔街见闻?伪装成国外媒体的国内下流野鸡媒体","text":"华尔街见闻?伪装成国外媒体的国内下流野鸡媒体","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":10,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/402475756646832","repostId":"2510281014","repostType":2,"isVote":1,"tweetType":1,"viewCount":2290,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":400779013640832,"gmtCreate":1738853681507,"gmtModify":1738854410111,"author":{"id":"3493026903540968","authorId":"3493026903540968","name":"喵猎人","avatar":"https://static.tigerbbs.com/58473a0d1b4fb322d1a77e8cbfb78197","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3493026903540968","authorIdStr":"3493026903540968"},"themes":[],"htmlText":"👅","listText":"👅","text":"👅","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/400779013640832","repostId":"2509244885","repostType":2,"isVote":1,"tweetType":1,"viewCount":1619,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"EN","totalScore":0},{"id":400343964676312,"gmtCreate":1738766318673,"gmtModify":1738767367707,"author":{"id":"3493026903540968","authorId":"3493026903540968","name":"喵猎人","avatar":"https://static.tigerbbs.com/58473a0d1b4fb322d1a77e8cbfb78197","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3493026903540968","authorIdStr":"3493026903540968"},"themes":[],"htmlText":"台积电有足够的定价权,让谁加的关税谁承担。","listText":"台积电有足够的定价权,让谁加的关税谁承担。","text":"台积电有足够的定价权,让谁加的关税谁承担。","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/400343964676312","repostId":"1101374989","repostType":2,"isVote":1,"tweetType":1,"viewCount":1691,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":398413763907648,"gmtCreate":1738291717163,"gmtModify":1738724494388,"author":{"id":"3493026903540968","authorId":"3493026903540968","name":"喵猎人","avatar":"https://static.tigerbbs.com/58473a0d1b4fb322d1a77e8cbfb78197","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3493026903540968","authorIdStr":"3493026903540968"},"themes":[],"htmlText":"这几天趁着热乎劲,研究了一下DeepSeek。大概有个认知,跟大家分享一下。 简单说,DeepSeek发明了一种针对特殊应用场景的AI软件框架,可以单独训练一个针对性的边缘AI,可以本地化部署,但需要提前用中心化的大模型AI进行训练。 DeepSeek先让Chat-GPT给他一个答题的最大可能性方向。然后再通过输入的数据在这个方向上推导逻辑过程。这样当然就节省算力了! 当然也不是完全没有创新,因为边缘系统对问题场景的运算效率很高,因为有很高的针对性,这是大模型无法实现的。大模型会“培训”一套机制给边缘AI(就像给一套模拟试题集,然后给模拟考试),一旦学会后,边缘AI就可以解答具体情景里的问题了。 这个过程有点像学开车,一开始新手学车需要大脑充分参与训练,等学会了以后,大脑对开车这件事的参与度就很低了,比如你可以边开车边聊天。“肌肉记忆”下的简单感官反应,就能实现开车的大部分过程。在这里,大脑就是GPT这种大模型,身体手眼脚等会在培训中形成一个针对开车这件事的“肌肉记忆”,就是具体的AI软件,培训形成这个软件的机制框架就是DeepSeek。这个反应很快不太需要大脑参与的肌肉记忆,需要大模型深度参与的“提前”训练。一旦训练完成,使用次数越多,远端大模型的参与就会越少,甚至最终不用参与。 这种方式的缺点是具体某个边缘AI软件只能解决有限的一类应用场景。比如可以帮助医生快速诊断开处方,但不能解决厨师的菜谱问题。你想让他学新东西,恐怕就要花钱升级硬件了。优点是速度快省钱,但不可能什么都懂。 将来的格局可能是这两种AI都存在。边缘AI针对性强,便捷便宜,PC上就能部署,但依赖大模型AI的培训。所以预计会有一轮PC终端设备的硬件升级,目前的终端设备配置普遍还是有些低的。这就像2010年前后的智能手机普及浪潮。 如果未来果真如此,利好的公司会是哪些呢","listText":"这几天趁着热乎劲,研究了一下DeepSeek。大概有个认知,跟大家分享一下。 简单说,DeepSeek发明了一种针对特殊应用场景的AI软件框架,可以单独训练一个针对性的边缘AI,可以本地化部署,但需要提前用中心化的大模型AI进行训练。 DeepSeek先让Chat-GPT给他一个答题的最大可能性方向。然后再通过输入的数据在这个方向上推导逻辑过程。这样当然就节省算力了! 当然也不是完全没有创新,因为边缘系统对问题场景的运算效率很高,因为有很高的针对性,这是大模型无法实现的。大模型会“培训”一套机制给边缘AI(就像给一套模拟试题集,然后给模拟考试),一旦学会后,边缘AI就可以解答具体情景里的问题了。 这个过程有点像学开车,一开始新手学车需要大脑充分参与训练,等学会了以后,大脑对开车这件事的参与度就很低了,比如你可以边开车边聊天。“肌肉记忆”下的简单感官反应,就能实现开车的大部分过程。在这里,大脑就是GPT这种大模型,身体手眼脚等会在培训中形成一个针对开车这件事的“肌肉记忆”,就是具体的AI软件,培训形成这个软件的机制框架就是DeepSeek。这个反应很快不太需要大脑参与的肌肉记忆,需要大模型深度参与的“提前”训练。一旦训练完成,使用次数越多,远端大模型的参与就会越少,甚至最终不用参与。 这种方式的缺点是具体某个边缘AI软件只能解决有限的一类应用场景。比如可以帮助医生快速诊断开处方,但不能解决厨师的菜谱问题。你想让他学新东西,恐怕就要花钱升级硬件了。优点是速度快省钱,但不可能什么都懂。 将来的格局可能是这两种AI都存在。边缘AI针对性强,便捷便宜,PC上就能部署,但依赖大模型AI的培训。所以预计会有一轮PC终端设备的硬件升级,目前的终端设备配置普遍还是有些低的。这就像2010年前后的智能手机普及浪潮。 如果未来果真如此,利好的公司会是哪些呢","text":"这几天趁着热乎劲,研究了一下DeepSeek。大概有个认知,跟大家分享一下。 简单说,DeepSeek发明了一种针对特殊应用场景的AI软件框架,可以单独训练一个针对性的边缘AI,可以本地化部署,但需要提前用中心化的大模型AI进行训练。 DeepSeek先让Chat-GPT给他一个答题的最大可能性方向。然后再通过输入的数据在这个方向上推导逻辑过程。这样当然就节省算力了! 当然也不是完全没有创新,因为边缘系统对问题场景的运算效率很高,因为有很高的针对性,这是大模型无法实现的。大模型会“培训”一套机制给边缘AI(就像给一套模拟试题集,然后给模拟考试),一旦学会后,边缘AI就可以解答具体情景里的问题了。 这个过程有点像学开车,一开始新手学车需要大脑充分参与训练,等学会了以后,大脑对开车这件事的参与度就很低了,比如你可以边开车边聊天。“肌肉记忆”下的简单感官反应,就能实现开车的大部分过程。在这里,大脑就是GPT这种大模型,身体手眼脚等会在培训中形成一个针对开车这件事的“肌肉记忆”,就是具体的AI软件,培训形成这个软件的机制框架就是DeepSeek。这个反应很快不太需要大脑参与的肌肉记忆,需要大模型深度参与的“提前”训练。一旦训练完成,使用次数越多,远端大模型的参与就会越少,甚至最终不用参与。 这种方式的缺点是具体某个边缘AI软件只能解决有限的一类应用场景。比如可以帮助医生快速诊断开处方,但不能解决厨师的菜谱问题。你想让他学新东西,恐怕就要花钱升级硬件了。优点是速度快省钱,但不可能什么都懂。 将来的格局可能是这两种AI都存在。边缘AI针对性强,便捷便宜,PC上就能部署,但依赖大模型AI的培训。所以预计会有一轮PC终端设备的硬件升级,目前的终端设备配置普遍还是有些低的。这就像2010年前后的智能手机普及浪潮。 如果未来果真如此,利好的公司会是哪些呢","images":[{"img":"https://static.tigerbbs.com/ba34cf3b8cd91d165c6dda3e1b785346","width":"927","height":"1539"}],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":3,"commentSize":8,"repostSize":2,"link":"https://laohu8.com/post/398413763907648","isVote":1,"tweetType":1,"viewCount":10463,"authorTweetTopStatus":1,"verified":2,"comments":[{"author":{"id":"10000000000010523","authorId":"10000000000010523","name":"财富大元宝","avatar":"https://static.tigerbbs.com/5749c9428d206c1502f68209d60128d6","crmLevel":1,"crmLevelSwitch":0,"idStr":"10000000000010523","authorIdStr":"10000000000010523"},"content":"按照你的意思chatgpt就不行了吗~","text":"按照你的意思chatgpt就不行了吗~","html":"按照你的意思chatgpt就不行了吗~"},{"author":{"id":"4088626949262520","authorId":"4088626949262520","name":"Inmoretion","avatar":"https://static.tigerbbs.com/b1c0fdec2b419399e39fd0a7b103ef63","crmLevel":8,"crmLevelSwitch":0,"idStr":"4088626949262520","authorIdStr":"4088626949262520"},"content":"理论上前期模型训练基本结束了,下一步模型逻辑和情感等进一步的训练正在进行,不过这块的训练肯定也离不开硬件以及各家自己的训练模式以及后续的发展方向","text":"理论上前期模型训练基本结束了,下一步模型逻辑和情感等进一步的训练正在进行,不过这块的训练肯定也离不开硬件以及各家自己的训练模式以及后续的发展方向","html":"理论上前期模型训练基本结束了,下一步模型逻辑和情感等进一步的训练正在进行,不过这块的训练肯定也离不开硬件以及各家自己的训练模式以及后续的发展方向"}],"imageCount":1,"langContent":"CN","totalScore":0},{"id":398242098786544,"gmtCreate":1738249577898,"gmtModify":1738249580090,"author":{"id":"3493026903540968","authorId":"3493026903540968","name":"喵猎人","avatar":"https://static.tigerbbs.com/58473a0d1b4fb322d1a77e8cbfb78197","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3493026903540968","authorIdStr":"3493026903540968"},"themes":[],"htmlText":"还是小宝说的对[捂脸]","listText":"还是小宝说的对[捂脸]","text":"还是小宝说的对[捂脸]","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/398242098786544","isVote":1,"tweetType":1,"viewCount":1750,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0},{"id":357793334022560,"gmtCreate":1728388602707,"gmtModify":1728388603679,"author":{"id":"3493026903540968","authorId":"3493026903540968","name":"喵猎人","avatar":"https://static.tigerbbs.com/58473a0d1b4fb322d1a77e8cbfb78197","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3493026903540968","authorIdStr":"3493026903540968"},"themes":[],"htmlText":"<a href=\"https://laohu8.com/S/000001.SH\">$上证指数(000001.SH)$ </a><v-v data-views=\"0\"></v-v> ","listText":"<a href=\"https://laohu8.com/S/000001.SH\">$上证指数(000001.SH)$ </a><v-v data-views=\"0\"></v-v> ","text":"$上证指数(000001.SH)$","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/357793334022560","isVote":1,"tweetType":1,"viewCount":1860,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"EN","totalScore":0},{"id":362720514,"gmtCreate":1614670734838,"gmtModify":1703479631887,"author":{"id":"3493026903540968","authorId":"3493026903540968","name":"喵猎人","avatar":"https://static.tigerbbs.com/58473a0d1b4fb322d1a77e8cbfb78197","crmLevel":2,"crmLevelSwitch":0,"followedFlag":false,"idStr":"3493026903540968","authorIdStr":"3493026903540968"},"themes":[],"htmlText":"危机和杠杆的部分讲得很精彩,后面关于改开,有待观察","listText":"危机和杠杆的部分讲得很精彩,后面关于改开,有待观察","text":"危机和杠杆的部分讲得很精彩,后面关于改开,有待观察","images":[],"top":1,"highlighted":1,"essential":1,"paper":1,"likeSize":0,"commentSize":0,"repostSize":0,"link":"https://laohu8.com/post/362720514","repostId":"2114034843","repostType":4,"isVote":1,"tweetType":1,"viewCount":3467,"authorTweetTopStatus":1,"verified":2,"comments":[],"imageCount":0,"langContent":"CN","totalScore":0}],"defaultTab":"posts","isTTM":false}