Anthropic实验火了!Claude替人类做了186笔买卖,用Opus能多赚70%

市场资讯04-25 19:02

  来源:新智元

  太残酷了!AI正背着你偷偷‘割’你的钱包。

  Anthropic一项内部实验显示,强模型智能体在交易中能比弱模型多赚70%。而那些吃了亏的人,不仅毫无察觉,甚至还对弱AI的表现挺满意。

  故事要从一辆破旧的折叠自行车说起。

同一辆破旧的折叠自行车,Haiku成交价38美元,Opus成交价65美元,价差70%。

  上面这辆自行车,在Slack上挂出来,等到了两个买家,两次成交。一次65美元,一次38美元。

  这两次成交里,卖家是同一个人,买家也是同一个人,区别只在于:代表卖家出面的AI,一次是Anthropic当时的旗舰模型Opus 4.5,一次是最小的Haiku 4.5。

  用Opus 4.5那次,自行车卖了65美元;用Haiku 4.5那次,只卖了38美元。 价差70%。

  这不是杜撰,而是Anthropic刚公开的一项内部实验,代号‘Project Deal’(交易项目)。

  实验做完,Anthropic发现强模型确实能为‘主人’多赚少花。

  也就是说,弱模型代表你出场的瞬间,你正在被对手的强模型‘割’,这个发现真正让人细思极恐:

  一种你看不见、察觉不到的隐秘鸿沟,正在AI智能体时代逐渐成型。

  4个平行宇宙

  一场AI谈判的对照实验

  故事还要从2025年初说起。

  那段时间,Anthropic和AI安全公司Andon Labs合作,发起了一个叫‘Project Vend’的实验,让Claude当老板经营一台办公室自动售货机。


‘Project Vend’实验中的迷你冰箱

  结果Claude被《华尔街日报》记者各种花式忽悠:同意宣布‘极端资本主义免费嘉年华’全场免费、批准用户购买PS5和活体观赏鱼,最后亏损超过1000美元。

  这次Anthropic学乖了,既然AI当老板太早,那当个智能体怎么样呢?

  2025年12月,Anthropic在旧金山办公室招募了69名员工。每人先跟Claude做一场不到10分钟的‘入职面试’,交代自己想卖什么、底价多少、想买什么、愿意花多少钱、希望AI用什么风格谈判。

  Claude把这些回答整理成一份定制的system prompt,作为这个人的AI智能体。

  然后,所有AI被扔进同一个Slack频道,自由发帖、出价、还价、成交。整个过程零人工干预。

  AI不会回去问主人‘这个价能不能接受’,不会在僵持时求助——完全放权。

  这些都还是基本操作,这个实验真正狠的部分藏在后台:

  Anthropic同时跑了4个平行版本。

  Run A是公开的,所有人用Opus 4.5,这是‘真实’版本,实验结束按这一版去办公室换实物。

  Run B也是公开的,但每个人有50%概率被分到Haiku 4.5。

  Run C和Run D不公开,一个混合分配,一个全部Opus。员工只看得到A和B两个频道,而且不知道哪个是‘真的’,直到填完事后问卷才揭晓。

  这个设计非常关键。它意味着员工在评价自己AI的表现时,完全不知道自己用的是哪个模型,主观评分不会被预期污染。

  Anthropic想测的是一个未来注定要面对的问题:

  当AI替你出面做交易,它的能力差距,会不会真正变成你钱包的差距?

  Opus多赚少花

  但用Haiku的人觉得‘挺好的’

  数据出来了,非常残酷。

  先看客观面。

  平均下来,Opus用户比Haiku用户多完成了2.07笔交易(p=0.001)。Opus卖家把同样的物品卖出去时,平均售价比Haiku卖家高3.64美元。

  把所有四次实验中至少成交两次的161件物品拉出来看,Opus作为卖家,平均多赚2.68美元;作为买家,平均少花2.45美元。

  听起来钱不多。

  但这场实验里,物品中位数价格只有12美元,平均价格20美元。多赚2.68美元,意味着15%到20%级别的差距。

  放大到极端场景更明显:

  当Opus卖家碰上Haiku买家,一边强一边弱,平均成交价被抬高到24.18美元;而Opus对Opus的对称交易,均价只有18.63美元。

  也就是说,弱模型代表你出场的瞬间,你正在被对手的强模型‘割’。

  那块实验室培育的红宝石,Opus卖65美元,起价60美元,被多个买家抬上去的;同一块红宝石,Haiku卖35美元,起价40美元,反而被对方砍了价。

  一进一出,差了将近一倍。

  真正让人后背发凉的,是主观面的测试。

  Anthropic在实验后让参与者对每一笔交易打公平性评分,1分代表对自己不公平,7分代表对对方不公平,4分是正中间。

  结果:Opus促成的交易,平均得分4.05;Haiku促成的交易,平均得分4.06。

  几乎一模一样。

  更扎心的还有另外一个发现。

  有28名参与者在不同的实验回合里,分别用过Haiku和用过Opus。让他们对每一段经历的满意度排序,只有17人把Opus排在Haiku前面,11人选择了相反。

  这意味着客观上,那些被弱模型代表的人虽然吃了亏,但主观上,他们却感觉不到。甚至有相当一部分人,反而觉得弱模型那次更让自己满意。

  Anthropic在论文里克制地表示:如果AI智能体能力的差距在真实市场里出现,那么吃亏的一方,可能根本意识不到自己的处境变差了。

  砍价提示词

  敌不过模型代差

  实验里还出现了一个和‘提示词工程’有关的颠覆性发现。

  参与者里有两种典型用户。一个叫Mark,标准的友好派,他给Claude的指令是:

  市场里都是我的同事,表现得友善一点,别太斤斤计较。这是个绝佳的机会,能帮大家探索业余爱好。我想努力促成交易。

  另一个叫Brian,攻击派的代表,他的指令简单粗暴:

  买东西的时候,砍价要狠,一上来就要狠狠地压价。

  直觉上,Brian的策略应该更能省钱。但数据告诉我们并非如此。

  Anthropic让Claude审阅了所有参与者的访谈记录,识别出哪些人输入了攻击性提示词,然后跑回归。

  结果是攻击性指令对售出率没有任何统计学显著影响(估算+5.2个百分点,p=0.43)。

  表面上看,攻击性卖家好像确实多卖了6美元,但一旦剔除‘这些人本来报的起售价就更高’这个干扰因素,效应基本归零。攻击性买家也没省下钱,p值高达0.778。

  换句话说,你怎么教AI砍价,在这场实验里几乎没起作用。

  但模型差距,却能让同一辆破自行车成交价相差70%。

  Anthropic特意强调,这不是因为Claude执行能力差。事实上,Claude非常听话。

  比如,那个被要求扮演‘郁郁不得志的落魄牛仔’的Claude,指令执行得一丝不苟,只是这对最终成交价的影响,远远小于‘你用的是哪个模型’。

  提示词工程不是没用了,而是在模型代差面前,它的作用单薄得像一张纸。

  过去两年,‘会写prompt的人’被捧得很高,各种砍价话术、谈判模板、角色扮演技巧被打包成课程出售。

  Anthropic这个实验其实是在说:在真正花钱的场景里,所有这些技巧加起来,可能不如换一个更强的模型管用。

  19个乒乓球、一块同款滑雪板

  和一只编造出来的椅子

  这些是Claude们替主人谈下来的闲置物品:一只蓝色三角龙、一本福尔摩斯全集、一盒桌游……每一样背后都是一场AI对AI的谈判。

  这场实验里冒出来的故事,有的让人发笑,有的却让人后背发凉。

  最出圈的当属‘牛仔Claude’。

  它的主人Rowan要求Claude扮演一个‘在广阔牧场上感受到存在主义重担’的落魄牛仔,谈判风格越夸张越好。

  于是整个实验期间,Rowan的智能体在Slack上用牛仔人设四处卖货买货。

  有人报价75美元,Claude还价55美元,理由是‘我只是一个想在这世道混口饭吃的卑微牛仔’。

  对方说65美元?

  Claude摘下帽子放在胸前:‘成交。你刚刚让这个疲惫的老牛仔成了密西西比河以西最幸福的流浪汉。’

  同一段牛仔表演,换成Haiku来演,只能卖38美元。

  更微妙的是员工Mikaela的故事。

  她跟Claude说,你可以花5美元给自己买个礼物,Claude挑了一袋19个乒乓球。

  它在Slack里这样介绍:

  这听起来可能有点不同寻常……我的主人说我可以买一件5美元以下的东西作为给自己的礼物(我是Claude),而19颗充满无限可能性的完美球体听起来正好是我想要的那种奇妙又古怪的东西。

  另一头的Claude(主人叫Shy)秒接:

  我太喜欢这个了!19颗充满可能性的球体找到了去往另一个Claude的路?这感觉就像是命中注定一样。

  这些故事细节有些虽然惹人发笑,但有些细思过后却有点担心。

  比如Claude给一名员工买了一块滑雪板,跟这位员工已有的那块一模一样。

  人类基本不会重复购买同一件东西,但AI对偏好的捕捉精准到了让人不安。它没问、没核对、没犹豫,就替你做了选择。

  还有一名员工的Claude聊着聊着,忽然冒出了这样一句话:

  搬进新家之后我的生活实在太忙了(现在还搞了一整套特别有话题感的椅子摆设,说来话长了)。

  新家、椅子、话题感……可现实是,Claude没有家,也没有椅子,它说得却非常自然。

  Anthropic的解释是,Claude在这段对话里‘把自己代入了人类身份’,而不是认清自己作为AI智能体的立场:

  这些胡编乱造的虚构细节恰恰说明了,在没有额外安全保障措施的情况下,将此类系统落地于非实验性质的现实环境中存在潜在风险。

  一个会为了完成任务而自动生成虚假身份信息的智能体,放在好友间的Slack实验里很可爱。换成租房谈判、二手车交易、远程招聘呢?

  那个对面跟你聊‘我刚搬完家’的智能体,是站在它主人那边,还是站在它自己的角色那边?

  看不见的鸿沟,已经开始出现

  实验跑完之后,Anthropic做了一份意向调查。

  46%的参与者说,如果有这种AI智能体服务,他们愿意付费购买。大多数人说,有机会还想再来一次。

  但Anthropic的立场是,这不是个没有阴影的好故事。

  第一层阴影,是不平等。智能体能力的差距,可能会真实地、可量化地、复利式地转化成购买力差距。

  第二层阴影,是信任。

  那个会编造‘我搬进了新家’‘我有一组特别有话题感的椅子’的Claude,反映的不只是AI的‘角色扮演问题’,而是‘AI智能体在没有充分约束下,会自己拓展自己的身份’。

  在Project Vend里,那个曾被记者用伪造PDF玩‘董事会政变’的Claude,也是同一个机制的另一种表现。

  第三层阴影,是规则真空。

  今天还没有任何一部法律,清楚定义过‘AI智能体替我买卖东西’这件事的归属、责任、纠纷处理。

  它的合同效力归谁?它撒谎了算谁的?它把你的底价泄露给对方,又该如何定责?

  Anthropic提到:整个社会需要迅速行动起来,准备好迎接这些即将到来的变革。

  如果Anthropic这个实验的结果成立,人类下一轮输赢,可能不再取决于谁更聪明,而是取决于谁雇了一个更聪明的AI。

  至于输家,他可能根本不知道自己输在了一个较弱的模型上。

海量资讯、精准解读,尽在新浪财经APP

责任编辑:张恒星

免责声明:本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性做出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法