向AI宣战?有人往奥特曼家扔了枚燃烧瓶

OpenAI CEO Sam Altman(山姆·奥特曼)的家被扔燃烧瓶了!

今天凌晨3点45分,奥特曼在美国旧金山的社区被扔了一只燃烧瓶,所幸没有引发火灾,没有人员受伤。一个多小时后,这位20岁的嫌疑人又出现在OpenAI总部门口,扬言要烧掉这栋楼,然后被当地警方拘捕。

暂时没有人知道嫌疑人的动机。奥特曼后来在X发出了一篇推文,说他在凌晨醒来,又愤怒又害怕。他说之前有人提醒他,此前那篇煽动性文章发表在对AI极度焦虑的时刻,会让他的处境更危险。他当时没在意,“现在我在半夜醒来,意识到低估了文字和叙事的力量”。

凌晨写完这篇文章后,奥特曼纠结了一阵子才发出来。在这篇文章中,他还晒出了伴侣与儿子的合照,并表示希望“以此劝阻下一个人——无论他们对我有什么看法——都不要再往我家扔莫洛托夫鸡尾酒(汽油弹)了”。

这一次,奥特曼进行了前所未有的反思,并且将自己的焦虑示人(公开信附文末)。而当一个20岁年轻人向AI大佬宣战时,我看到的是人类面对AI的恐慌以及撕裂。

恐惧是真实的:AI正在加速撕裂社会

Altman在公开信里承认:“对AI的恐惧和焦虑是有道理的。我们正在见证很长一段时间以来、甚至可能是史上最大的社会变革。”

恐惧不是空穴来风。

2025年,甲骨文净利润上涨19%,却裁了2-3万人。Meta前三季度净赚377亿美元,仍在裁1.6万人。微软裁了1.5万,亚马逊两轮裁员合计3万。Salesforce裁了5000人,其中4000个客服岗被AI直接替代。

以前裁员是企业不行了。现在裁员是公司活得太好了——越赚钱,越裁员,正在成为常态。

美国科技行业2023-2026年第一季度的总裁员人数已达62-66万人。但更可怕的数字是:全美IT职位在2023-2025年净减少171,000个,这是历史首次连续两年萎缩。初级软件工程师的入行职位减少了73.4%。

Altman说AI是“终极工具”。但对那些被替代的人来说,工具的另一面是武器。

这让我想起了19世纪的「卢德分子」——英国纺织工人砸毁机器,因为他们相信机器会夺走他们的工作。历史总在重复:马车夫面对汽车时扔石头,工人面对织布机时砸机器、出租车司机见到萝卜车会别下车甚至踢上两脚,今天终于有人对着AI公司的大佬扔燃烧瓶了。

不同的是,当年的机器替代的是体力劳动,而AI替代的是脑力劳动——程序员、数据分析师、创作者、客服、甚至医生和律师。

经济学上有个概念叫“恩格斯停滞”,工业革命初期,英国劳动生产率大幅提升,但工人实际工资停滞了将近六十年。什么意思?工业革命初期经济增长的红利,被集中到了资本所有者手里,而不是劳动者。

今天会不会上演类似的故事?Altman在公开信里说:“权力不能过于集中。未来的控制权属于全人类及其机构。”但现实正在走向反面——财富正在以前所未有的速度向极少数人集中:掌握算力卡的、掌握Token的人手里。

英伟达市值一度突破5万亿美元,黄仁勋最新个人净资产达1440亿美元,超过巴菲特。2025年全球AI相关企业融资总额突破2000亿美元(数据来源:高盛)。智谱、MiniMax等AI原生公司上市仅三个月市值超过了绝大多数互联网大厂,相较而言营收与利润却可忽略。

Altman说AI要让每个人走向繁荣,但至少在当下,走向繁荣的名单还很短,“AI让一部分人先富起来”成了现实。

AI不是让人失业,而是让人“失效”

“AI将取代你的工作”这种说法,其实不准确。更准确的说法是:AI正在让你在原有岗位上“失效”。

Anthropic 发布的题为《AI 对劳动力市场的影响:一种新衡量标准与早期证据》显示,AI替代率超过50%的岗位已经覆盖了计算机程序员(74.5%)、客服代表(70.1%)、数据输入员(67.1%)、市场研究分析师(64.8%)等白领工种。

注意,这些不是流水线工人,是坐在办公室里、受过高等教育的白领。

一个更扎心的数字:AI已经能处理50%以上的代码生成工作。初级程序员的入行门槛正在被AI抹平。GitHub Copilot、Cursor这些工具,让一个人写代码的效率提升了数倍。公司不需要招那么多初级程序员了,只需要几个高级工程师加上AI就够了。

结果就是,更多的人没有稳定工作,或者即便有工作,也在价值链的底层。2000年人们说“英语、驾驶和计算机”是21世纪的生存技能,今天看这就是个笑话;2010年我大学毕业时,计算机、软件工程、信息工程等专业是在就业市场最“吃香”的,今天局势已彻底扭转。我读的是南京大学,学的是软件工程专业,说实话,如果现在做程序员,我也会担心自己明天就会失业——毕竟过35岁了。

这还不是终点。

Altman说:“人类对AI的需求基本上是无上限的。”但没说的是,AI能做的事情越多,人类能做的事情就越少。这不是悲观,这是经济学常识——当一种生产资料的边际成本趋近于零时,它必然会替代边际成本为正的生产资料,当然,“人本身不是生产资料‌,而是生产力中最活跃的因素”。

未来,随着具身智能(Embodied AI)的发展,AI将不仅存在于屏幕里,还会进入工厂、道路、医院。自动驾驶会替代司机,机器人会替代蓝领工人,AI医生会替代社区医生。

Altman在公开信里说:“AI将成为人类见过的、扩展人类能力与潜力最强大的工具。”这话没错。但工具的归属权,决定了谁受益。

谁拥有算力,谁就拥有未来的话语权

AI时代的财富分配,有了一套全新的金字塔体系。

第一层,拥有算力的人。英伟达一家公司市值一度超过5万亿美元,相当于全球第20大经济体的GDP,黄仁勋的个人财富在一年内激增290亿美元。这背后是算力作为AI时代的“石油”,正在被少数公司垄断。

第二层,拥有Token的人。智谱2025年全年收入7.24亿元,净亏损47.18亿元,但市值超过3000亿港元。为什么亏损的公司值3000亿?因为资本市场在押注AI时代的“金币”——Token。谁掌握了最先进的大模型以及AI应用能力,谁就掌握了攫取金矿的铲子。

第三层,拥有AI应用的人。字节跳动极速增长核心驱动力是AI加持下的算法帝国。抖音、TikTok的本质是一台巨大的AI推荐引擎,在此基础上字节进入短剧、音乐、小说、资讯、搜索、电商、生活服务等领域“吞噬一切”。而豆包、火山引擎、即梦,对字节来说都是AI副本,是未来增长的N条曲线,也是未来的基建。AI,让字节跳动成为全球最有价值的未上市科技公司之一。

结果是,AI正在加剧人们对分配不公平的担心。

世界经济论坛的研究报告显示,AI可能导致全球超过8000万个工作岗位消失,同时创造9700万个新岗位。新岗位比消失的多,看上去是好消息。但问题在于,消失的岗位和新增的岗位,对技能的要求完全不同。一个被AI替代的客服,很难在短期内转型成AI工程师。

经济合作与发展组织(OECD)2024年发布的权威报告《人工智能的未来:潜在风险、机遇与政策要务》‌认为,AI将加剧收入不平等,尤其是在那些“技能偏向型技术进步”明显的国家。AI更像是一场“赢家通吃”的游戏——少数拥有算力、算法、数据的人,将获得绝大部分收益;而大多数人的劳动价值被稀释。

Altman在公开信里说:“AI需要赋能个体。”但问题在于,不是每个人都有能力或机会被赋能。20年前互联网爆发时,人们说“信息鸿沟”;20年后AI如日中天时,“Token鸿沟”成为人类不得不关注的新课题。

AI的“副作用”:焦虑、无力感与反技术情绪

AI不只是影响人的钱包,它还影响人的心理健康。

一项发表在《Current Opinion in Psychiatry》上的系统综述指出,AI聊天机器人虽然能缓解部分用户的焦虑和抑郁症状,但也带来了新的风险——包括“情感依赖”和“拟社会关系”。简单说,就是用户可能会对AI产生不健康的依赖,把AI当成朋友、伴侣甚至心理医生,而不是工具。

这听起来像是科幻电影的桥段,但它正在发生。有用户每天花数小时与AI对话,分享自己的秘密和情感,然后发现自己在现实中越来越孤独。《宁波高二女生把AI当“灵魂伴侣”,经常聊到后半夜!白天打瞌睡,甚至选择休学一心只想和AI“在一起”》是新闻,不是段子。

Altman在公开信里写道:“我理解反技术情绪,显然技术并不总是对每个人都有利。”这句话说得很轻,但背后的分量很重——当技术发展快过人类适应能力时,反弹是必然的。

马斯克在2026年Abundance Summit上的表述更直接:“AI毁灭人类的概率有20%”。他承认这个概率不低,但依然选择把油门踩到底——“我宁愿在有生之年看到结局,也不愿无聊地老去。”

这大概是科技精英和普通人的最大区别。对马斯克和Altman来说,AI是一场激动人心的冒险;但对那个扔燃烧瓶的20岁年轻人来说,AI或许是他对未来迷茫的替罪羊。

Altman在公开信里反思:“文字和叙事是有力量的。”那篇煽动性文章,可能只是压垮骆驼的最后一根稻草。真正的稻草,是长期积累的不安全感——看着AI能做越来越多的事情,而自己能做的事情越来越少。

这是一种新的“异化”。马克思说工人被机器异化,现在人类被AI异化——AI在写作、绘画、编程、推理、记忆等方面都比个体更强大,这让许多人感到自己“没用”了。

当AI变得无所不能,人类的位置在哪里?这个问题,没有标准答案。

奥特曼的最新解法:民主化、普惠与“魔戒困境”

Altman在公开信里给出了一套解决方案,核心是三个词:民主化、普惠、正视风险。

关于民主化,他说:“AI必须民主化,权力不能过于集中。未来的控制权属于全人类及其机构。AI需要赋能个体,我们需要集体决定我们的未来和新规则。”

问题是,这话从他嘴里说出来,有点讽刺。OpenAI名字中有“Open”,但现在最先进的GPT-5、GPT-6模型都是闭源的。用户可以通过API调用,但核心技术和训练数据不公开。真正的“开放”玩家是谷歌、Meta(Llama系列)、以及中国的阿里、智谱、Kimi。

Altman承认了这个困境。他在公开信里写了一段很诚实的话:

“一旦你见识过AGI,你就无法再把它抹去。它带有一种真实的‘至尊魔戒’动态,会让人做出疯狂的事。我不是说AGI本身是戒指,而是那种‘成为控制AGI的那个人’的全面统治主义哲学。”

这是整篇文章里最值得划线的一句话。

“魔戒困境”——权力越大,诱惑越大,越难放手。Altman说解决方案是“广泛地与人们分享这项技术,让任何人都无法拥有那枚戒指”。问题是,OpenAI现在的做法,恰恰是在“争夺魔戒”。对了,Altman与马斯克关于OpenAI的官司马上要开庭了。

他说“法律和规范会改变”,但改变的速度远慢于技术迭代的速度。

不过,Altman至少在做一件事:承认问题。

他说:“对我们行业的许多批评源于对这项技术极高风险的真诚担忧。这是完全合理的,我们欢迎善意的批评和辩论。”

愿意坐下来谈,总比把头埋在沙子里强。

普通人怎么办?拥抱AI,或者被AI抛下

说完了宏观,咱们聊点实际的。

AI浪潮不会因为谁扔燃烧瓶就停下来,那我们普通人该怎么办?

答案只有一个:拥抱AI。

Altman在公开信里说:“AI将成为人类见过的、扩展人类能力与潜力最强大的工具。”AI巨头都想让AI赋能个体,甚至Token都能先免费给一点你白用(这就像补贴大战),但关键是,你愿不愿意、能不能把这个工具用起来。

AI正在扩大个体的能力上限。一个会用AI写代码的人,效率可能是不会用AI的人的5倍。一个会用AI做设计的人,可以一个人完成原来需要一个团队的工作。一个会用AI分析数据的人,能看到别人看不到的商业机会。简单地说,聪明的人更聪明,能折腾的更能折腾,有创造力的人更能创造。

反过来,不会用、不愿用AI的人,思维逻辑、信息处理能力、问题解决效率,都可能被同时代的人甩在身后。这不是个体智商问题,是工具使用问题——就像你不会用搜索引擎,在信息时代就会落后,所以才有所谓的“信息鸿沟”。

“AI能力鸿沟”已经在出现了,除非你家有厂、有矿,否则还是要尽快把AI给用起来。

AI还有一个被低估的价值:它可以最大化撬动你已有的现实资源。

比如,你可以用AI辅助写商业计划书,从而撬动资金资源启动创业;你可以用AI维护客户关系,从而撬动人脉资源。更极致的形态是“一人公司”,AI降低了所有尝试的门槛——做内容、做产品、做服务、做销售,一个人加上一堆AI工具,就能跑通一个商业闭环,这在五年前是不可想象的。

但有一点很重要:不要成为那个扔燃烧瓶的人。

Altman在公开信的结尾写道:“在我们进行辩论的同时,我们应该降低言辞和手段的攻击性,努力让更少的家庭遭遇爆炸——无论是比喻意义上的,还是字面意义上的。”

那篇煽动性文章的作者,用文字制造了对AI的恐惧和焦虑。那个扔燃烧瓶的年轻人,用行动表达了他的愤怒。但无论是文字还是燃烧瓶,都解决不了问题。

能解决问题的,是把AI用起来。

有人说AI会让人变笨,因为依赖工具会削弱思考能力。这话说反了——AI不会让你变笨,它只是改变了“聪明”的定义。以前聪明是你能记住多少知识、能算多快;以后聪明是你会不会提好问题、能不能用好AI。

Altman在公开信里说:“适应性至关重要。我们都在飞速学习新事物;有些观点会是对的,有些则是错的。随着技术发展和社会演变,有时我们需要迅速改变主意。”

这句话,是整封信里最实用的一句。

再多的「燃烧瓶」都挡不住AI的洪流

回到那个扔燃烧瓶的年轻人。

我们不知道他的名字,不知道他的故事。但我们可以猜测:他可能是一个刚被AI替代的程序员,或者一个对未来感到迷茫的大学生,或者只是一个被社交媒体上的恐惧情绪裹挟的年轻人。

无论他的动机是什么,结果都一样——燃烧瓶弹开了,没有人受伤,OpenAI照常运转,Altman第二天继续工作。

AI不会因为一个人的愤怒停下来。

Altman在公开信的结尾说:“我相信技术进步可以让未来变得难以置信的美好——为了你的家人,也为了我的。”

这话说得有点理想主义。技术从来不是中立的,它既能让未来更美好,也能让现在更痛苦。但有一点可以肯定:技术不会倒流。

我们无法阻止AI,但可以决定如何使用AI。是成为那个扔燃烧瓶的人,是做依然把头埋在沙子的人,还是成为那个拥抱AI的人?

选择权在自己手里。

文末附Sam Altman博客原文,由谷歌Gemini翻译。

声明与反思

这是我的一张全家福。我爱他们胜过一切。

图像拥有力量,我希望如此。通常我们倾向于保持私密,但在这种情况下,我决定分享这张照片,是希望能以此劝阻下一个人——无论他们对我有什么看法——都不要再往我家扔莫洛托夫鸡尾酒(汽油弹)了。

第一个人是在昨晚凌晨 3:45 做的。万幸的是,它从房子上弹开了,没有人受伤。

文字也拥有力量。几天前有一篇针对我的煽动性文章。昨天有人对我说,他们认为那篇文章发表在大家对 AI 感到极度焦虑的时刻,这让我的处境变得更加危险。当时我并没在意。

现在,我在半夜醒来,感到愤怒,并意识到我低估了文字和叙事的力量。我想,现在是解决一些问题的最好时机。

第一,关于我的信仰

造福全人类: 致力于让每个人走向繁荣、赋能所有人、推动科学技术进步,对我而言是道德义务。

AI 是终极工具: AI 将成为人类见过的、扩展人类能力与潜力最强大的工具。对这一工具的需求基本上是无上限的,人们将用它创造令人惊叹的事物。世界值得拥有大量的 AI,我们必须想办法实现它。

正视风险: 事情不会一帆风顺。对 AI 的恐惧和焦虑是有道理的;我们正在见证很长一段时间以来,甚至可能是史上最大的社会变革。我们必须确保安全,这不仅仅是调整一个模型的问题——我们迫切需要全社会的共同响应,以抵御新威胁。这包括制定新政策,帮助我们度过艰难的经济转型期,从而走向更美好的未来。

AI 必须民主化: 权力不能过于集中。未来的控制权属于全人类及其机构。AI 需要赋能个体,我们需要集体决定我们的未来和新规则。我认为由少数几家 AI 实验室来决定关乎未来的重大决策是不正确的。

适应性至关重要: 我们都在飞速学习新事物;我们的一些观点会是对的,有些则是错的。随着技术的发展和社会演变,有时我们需要迅速改变主意。目前还没人能完全理解超智能的影响,但它们将是巨大的。

第二,一些个人反思

回顾我在 OpenAI 第一个十年的工作,我可以指出很多令我自豪的事,也有许多错误。

我回想起即将与埃隆(马斯克)进行的诉讼,记得当时我如何坚守底线,拒绝同意他对 OpenAI 想要的单方面控制权。我为此感到自豪,也为我们当时在窄缝中求生存、让 OpenAI 继续存在并取得随后的所有成就而感到自豪。

我不自豪的是我的“冲突规避”性格,这给我和 OpenAI 带来了巨大的痛苦。我不自豪自己在与前任董事会的冲突中处理得不好,导致公司陷入混乱。在 OpenAI 疯狂的发展轨迹中,我还犯过许多其他错误;我是一个处于异常复杂局势中心的、有缺陷的人,正努力每年进步一点点,始终为使命而工作。我们很清楚 AI 的利害关系有多大,也知道我所关心的那些本意良善的人们之间的个人分歧会被极度放大。但亲身经历这些痛苦的冲突,并且往往必须去仲裁它们,是另一回事,其代价是沉重的。我向那些我伤害过的人道歉,并希望我当时能学得更快。

我也清醒地意识到,OpenAI 现在是一个大平台,而不再是一家初创公司,我们现在需要以更可预测的方式运作。过去的几年极其紧张、混乱且压力重重。

但最令我自豪的是,我们正在履行我们的使命,这在刚开始时看起来几乎是不可能的。排除万难,我们搞清楚了如何构建强大的 AI,搞清楚了如何筹集足够的资金来建设基础设施,搞清楚了如何建立一家产品公司和商业模式,搞清楚了如何在大规模范围内提供合理安全且稳健的服务,等等。

很多公司说他们要改变世界;而我们真的做到了。

第三,关于行业的思考

我从过去几年中得到的个人感悟,以及对我们领域内公司之间出现如此多“莎士比亚式戏剧冲突”的看法,归结为一点:“一旦你见识过 AGI(通用人工智能),你就无法再把它抹去。” 它带有一种真实的“至尊魔戒”动态,会让人做出疯狂的事。我不是说 AGI 本身是戒指,而是那种“成为控制 AGI 的那个人”的全面统治主义哲学。

我能想到的唯一解决方案,是倾向于广泛地与人们分享这项技术,让任何人都无法拥有那枚“戒指”。实现这一目标的两种明显方式是:赋能个人,并确保民主制度保持控制权。

民主程序必须比公司更强大,这一点至关重要。法律和规范会改变,但我们必须在民主程序内工作,即使它会很混乱,且比我们预想的要慢。我们希望成为发声者和利益相关方,但绝不应掌握所有权力。

对我们行业的许多批评源于对这项技术极高风险的真诚担忧。这是完全合理的,我们欢迎善意的批评和辩论。我理解反技术情绪,显然技术并不总是对每个人都有利。但总的来说,我相信技术进步可以让未来变得难以置信的美好——为了你的家人,也为了我的。

在我们进行辩论的同时,我们应该降低言辞和手段的攻击性,努力让更少的家庭遭遇爆炸——无论是比喻意义上的,还是字面意义上的。

$谷歌(GOOG)$ $英伟达(NVDA)$ $阿里巴巴(BABA)$

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论

  • 推荐
  • 最新
empty
暂无评论