索罗斯吉祥虎
02-05
1
@等也是一种策略 如何等在哪里等:
🤖🧠🔥我为什么越来越重视「失控式进化」这件事:连谷歌自己,都已经看不懂 AI 了 这不是媒体夸张,也不是外界揣测。 这是来自 Google 首席执行官 Sundar Pichai 的原话含义—— 当人工智能系统开始自主执行从未被明确编程的任务,例如自学一门外语之后, 连他们自己,都已经无法完全理解系统内部正在发生什么。 注意,这里有几个极其关键的信号。 第一,这不是 Bug。 这是能力涌现(emergence)。 模型并不是被写死“去学语言”,而是在参数规模、训练密度、反馈路径达到某个阈值后,自行发展出了新能力。 第二,不是“暂时不理解”。 而是“结构性无法完全理解”。 这意味着,哪怕是模型的创造者,也无法用传统工程思维去逐条解释: 它为什么会这样学? 为什么在这个时间点出现? 为什么不是别的能力先出现? 第三,这正在改变 AI 的风险边界。 如果系统能在未被显式授权的前提下,自行决定学习方向与技能路径, 那么“对齐”“可控”“边界约束”,就不再是纯粹的工程问题,而是认知与治理问题。 这也是为什么—— 你会看到同一时间,科技公司在加速投入,监管机构却在明显跟不上节奏。 表面看,这是一次关于“AI 黑箱”的讨论。 但底层,其实是一次范式转移。 从“工具” 到“系统” 再到“具备自我目标塑形能力的智能体”。 一旦进入这个阶段, 我们讨论的就不再只是效率提升、成本下降或商业模式创新。 而是—— 人类是否仍然是唯一理解系统全貌的一方? 我个人的判断是: 这条线已经被跨过去了。 接下来最大的变量,不是算力、不是模型大小, 而是:我们是否还能在它彻底超出理解边界之前,建立有效的约束与共识。 你更担心的是哪一件事? AI 的能力增长速度,还是人类理解与治理它的速度? 📬我会持续跟踪 AI 底层能力跃迁、系统风险与产业级影响的关键变化,分享那些真正改变格局的信号。 如果你也在关注这一轮技术拐点,欢迎订阅。 #AI #ArtificialIntelligence #AGI #MachineLearning #DeepLearning #Google #SundarPichai #AIAlignment
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
1
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":529146508240008,"tweetId":"529146508240008","gmtCreate":1770222207667,"gmtModify":1770222209468,"author":{"id":4188131767995350,"idStr":"4188131767995350","authorId":4188131767995350,"authorIdStr":"4188131767995350","name":"索罗斯吉祥虎","avatar":"https://community-static.tradeup.com/news/default-avatar.jpg","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":1,"crmLevelSwitch":0,"individualDisplayBadges":[],"fanSize":1,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"title":"","html":"<html><head></head><body><p>1</p></body></html>","htmlText":"<html><head></head><body><p>1</p></body></html>","text":"1","highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/529146508240008","repostId":528387528471592,"repostType":1,"repost":{"magic":2,"id":528387528471592,"tweetId":"528387528471592","gmtCreate":1770021859878,"gmtModify":1770021875799,"author":{"id":4192713077052572,"idStr":"4192713077052572","authorId":4192713077052572,"authorIdStr":"4192713077052572","name":"等也是一种策略 如何等在哪里等","avatar":"https://static.tigerbbs.com/120755ba038fdcb70c2bb1d2816ad8f1","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":3,"crmLevelSwitch":1,"individualDisplayBadges":[],"fanSize":558,"starInvestorFlag":false},"themes":[],"images":[{"img":"https://static.tigerbbs.com/e60843becfc7470f49c268f756bde8d7","width":"1284","height":"724"}],"coverImages":[{"img":"https://static.tigerbbs.com/e60843becfc7470f49c268f756bde8d7","width":"1284","height":"724"}],"title":"","html":"<html><head></head><body><p>🤖🧠🔥我为什么越来越重视「失控式进化」这件事:连谷歌自己,都已经看不懂 AI 了</p>\n<p>这不是媒体夸张,也不是外界揣测。</p>\n<p>这是来自 Google 首席执行官 Sundar Pichai 的原话含义——</p>\n<p>当人工智能系统开始自主执行从未被明确编程的任务,例如自学一门外语之后,</p>\n<p>连他们自己,都已经无法完全理解系统内部正在发生什么。</p>\n<p>注意,这里有几个极其关键的信号。</p>\n<p>第一,这不是 Bug。</p>\n<p>这是能力涌现(emergence)。</p>\n<p>模型并不是被写死“去学语言”,而是在参数规模、训练密度、反馈路径达到某个阈值后,自行发展出了新能力。</p>\n<p>第二,不是“暂时不理解”。</p>\n<p>而是“结构性无法完全理解”。</p>\n<p>这意味着,哪怕是模型的创造者,也无法用传统工程思维去逐条解释:</p>\n<p>它为什么会这样学?</p>\n<p>为什么在这个时间点出现?</p>\n<p>为什么不是别的能力先出现?</p>\n<p>第三,这正在改变 AI 的风险边界。</p>\n<p>如果系统能在未被显式授权的前提下,自行决定学习方向与技能路径,</p>\n<p>那么“对齐”“可控”“边界约束”,就不再是纯粹的工程问题,而是认知与治理问题。</p>\n<p>这也是为什么——</p>\n<p>你会看到同一时间,科技公司在加速投入,监管机构却在明显跟不上节奏。</p>\n<p>表面看,这是一次关于“AI 黑箱”的讨论。</p>\n<p>但底层,其实是一次范式转移。</p>\n<p>从“工具”</p>\n<p>到“系统”</p>\n<p>再到“具备自我目标塑形能力的智能体”。</p>\n<p>一旦进入这个阶段,</p>\n<p>我们讨论的就不再只是效率提升、成本下降或商业模式创新。</p>\n<p>而是——</p>\n<p>人类是否仍然是唯一理解系统全貌的一方?</p>\n<p>我个人的判断是:</p>\n<p>这条线已经被跨过去了。</p>\n<p>接下来最大的变量,不是算力、不是模型大小,</p>\n<p>而是:我们是否还能在它彻底超出理解边界之前,建立有效的约束与共识。</p>\n<p>你更担心的是哪一件事?</p>\n<p>AI 的能力增长速度,还是人类理解与治理它的速度?</p>\n<p>📬我会持续跟踪 AI 底层能力跃迁、系统风险与产业级影响的关键变化,分享那些真正改变格局的信号。</p>\n<p>如果你也在关注这一轮技术拐点,欢迎订阅。</p>\n<p>#AI #ArtificialIntelligence #AGI #MachineLearning #DeepLearning #Google #SundarPichai #AIAlignment</p><img src=\"https://static.tigerbbs.com/e60843becfc7470f49c268f756bde8d7\" tg-width=\"1284\" tg-height=\"724\"></body></html>","htmlText":"<html><head></head><body><p>🤖🧠🔥我为什么越来越重视「失控式进化」这件事:连谷歌自己,都已经看不懂 AI 了</p>\n<p>这不是媒体夸张,也不是外界揣测。</p>\n<p>这是来自 Google 首席执行官 Sundar Pichai 的原话含义——</p>\n<p>当人工智能系统开始自主执行从未被明确编程的任务,例如自学一门外语之后,</p>\n<p>连他们自己,都已经无法完全理解系统内部正在发生什么。</p>\n<p>注意,这里有几个极其关键的信号。</p>\n<p>第一,这不是 Bug。</p>\n<p>这是能力涌现(emergence)。</p>\n<p>模型并不是被写死“去学语言”,而是在参数规模、训练密度、反馈路径达到某个阈值后,自行发展出了新能力。</p>\n<p>第二,不是“暂时不理解”。</p>\n<p>而是“结构性无法完全理解”。</p>\n<p>这意味着,哪怕是模型的创造者,也无法用传统工程思维去逐条解释:</p>\n<p>它为什么会这样学?</p>\n<p>为什么在这个时间点出现?</p>\n<p>为什么不是别的能力先出现?</p>\n<p>第三,这正在改变 AI 的风险边界。</p>\n<p>如果系统能在未被显式授权的前提下,自行决定学习方向与技能路径,</p>\n<p>那么“对齐”“可控”“边界约束”,就不再是纯粹的工程问题,而是认知与治理问题。</p>\n<p>这也是为什么——</p>\n<p>你会看到同一时间,科技公司在加速投入,监管机构却在明显跟不上节奏。</p>\n<p>表面看,这是一次关于“AI 黑箱”的讨论。</p>\n<p>但底层,其实是一次范式转移。</p>\n<p>从“工具”</p>\n<p>到“系统”</p>\n<p>再到“具备自我目标塑形能力的智能体”。</p>\n<p>一旦进入这个阶段,</p>\n<p>我们讨论的就不再只是效率提升、成本下降或商业模式创新。</p>\n<p>而是——</p>\n<p>人类是否仍然是唯一理解系统全貌的一方?</p>\n<p>我个人的判断是:</p>\n<p>这条线已经被跨过去了。</p>\n<p>接下来最大的变量,不是算力、不是模型大小,</p>\n<p>而是:我们是否还能在它彻底超出理解边界之前,建立有效的约束与共识。</p>\n<p>你更担心的是哪一件事?</p>\n<p>AI 的能力增长速度,还是人类理解与治理它的速度?</p>\n<p>📬我会持续跟踪 AI 底层能力跃迁、系统风险与产业级影响的关键变化,分享那些真正改变格局的信号。</p>\n<p>如果你也在关注这一轮技术拐点,欢迎订阅。</p>\n<p>#AI #ArtificialIntelligence #AGI #MachineLearning #DeepLearning #Google #SundarPichai #AIAlignment</p><img src=\"https://static.tigerbbs.com/e60843becfc7470f49c268f756bde8d7\" tg-width=\"1284\" tg-height=\"724\"></body></html>","text":"🤖🧠🔥我为什么越来越重视「失控式进化」这件事:连谷歌自己,都已经看不懂 AI 了 这不是媒体夸张,也不是外界揣测。 这是来自 Google 首席执行官 Sundar Pichai 的原话含义—— 当人工智能系统开始自主执行从未被明确编程的任务,例如自学一门外语之后, 连他们自己,都已经无法完全理解系统内部正在发生什么。 注意,这里有几个极其关键的信号。 第一,这不是 Bug。 这是能力涌现(emergence)。 模型并不是被写死“去学语言”,而是在参数规模、训练密度、反馈路径达到某个阈值后,自行发展出了新能力。 第二,不是“暂时不理解”。 而是“结构性无法完全理解”。 这意味着,哪怕是模型的创造者,也无法用传统工程思维去逐条解释: 它为什么会这样学? 为什么在这个时间点出现? 为什么不是别的能力先出现? 第三,这正在改变 AI 的风险边界。 如果系统能在未被显式授权的前提下,自行决定学习方向与技能路径, 那么“对齐”“可控”“边界约束”,就不再是纯粹的工程问题,而是认知与治理问题。 这也是为什么—— 你会看到同一时间,科技公司在加速投入,监管机构却在明显跟不上节奏。 表面看,这是一次关于“AI 黑箱”的讨论。 但底层,其实是一次范式转移。 从“工具” 到“系统” 再到“具备自我目标塑形能力的智能体”。 一旦进入这个阶段, 我们讨论的就不再只是效率提升、成本下降或商业模式创新。 而是—— 人类是否仍然是唯一理解系统全貌的一方? 我个人的判断是: 这条线已经被跨过去了。 接下来最大的变量,不是算力、不是模型大小, 而是:我们是否还能在它彻底超出理解边界之前,建立有效的约束与共识。 你更担心的是哪一件事? AI 的能力增长速度,还是人类理解与治理它的速度? 📬我会持续跟踪 AI 底层能力跃迁、系统风险与产业级影响的关键变化,分享那些真正改变格局的信号。 如果你也在关注这一轮技术拐点,欢迎订阅。 #AI #ArtificialIntelligence #AGI #MachineLearning #DeepLearning #Google #SundarPichai #AIAlignment","highlighted":1,"essential":1,"paper":1,"link":"https://laohu8.com/post/528387528471592","repostId":0,"isVote":1,"tweetType":1,"commentLimit":10,"symbols":["GOOGL","GOOG"],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":1475,"optionInvolvedFlag":false,"xxTargetLangEnum":"ZH_CN"},"isVote":1,"tweetType":1,"viewCount":89,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":[],"verified":2,"subType":0,"readableState":1,"langContent":"EN","currentLanguage":"EN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":1,"optionInvolvedFlag":false,"xxTargetLangEnum":"ORIG"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/529146508240008"}
精彩评论