最接近真相的 OpenAI 创办史

编译自 Elon Musk 起诉 OpenAI 的文件

​​A. AI 的风险

在 20 世纪,美国逐渐从一个以人力劳动为基础的经济转变为一个以人类知识为基础的经济,经济价值主要由人类智力创造。随着时间的推移,人工智能(AI)开始创造价值。

早期的 AI 程序能够在某些特定任务上超越人类。几乎在可编程计算机发明后不久,AI 就能在像寻找网络中最快路径这样的高度形式化问题上展现出超人的表现。这些程序虽然有用,但基本上是专用的——它们的智力并不通用。Deep Blue 拥有大量处理器阵列,但只能下棋。用于路径查找的算法可以解决迷宫或规划汽车路线,但它们不能画画。

从 21 世纪初开始,一个名为「深度学习」的旧算法首次在低成本硬件上变得实用。这导致了几乎所有 AI 项目性能的几乎一夜之间的革命。新的顶级算法被开发出来,用于将语音转换为文本、翻译语言,以及识别照片中展示的食物类型。深度学习的一个标志是,算法不需要理解针对手头任务的大量知识。它们通过训练示例学习每项任务,基本上是在自我编程。这意味着它们比早期的系统,如 Deep Blue,更具通用性。

随着深度学习算法变得越来越复杂,世界上一些领先的 AI 研究人员开始关注所谓的人工通用智能(AGI)。AGI 的基本概念是一个通用目标的人工智能系统——一种机器,具有像人类一样处理各种任务的智力。

Elon Musk 长期以来一直认为 AGI 对人类构成了严重威胁——也许是我们今天面临的最大生存威胁。他的担忧与 Stephen Hawking 和 Sun Microsystems 创始人 Bill Joy 等人提出的担忧相呼应。我们的整个经济都是建立在人类共同努力,为艰难任务找到最佳解决方案的基础上。如果一台机器几乎能比我们更好地解决任何任务,那么这台机器在经济上就比我们更有用。

正如 Bill 警告的那样,有了强大的 AGI,「未来不需要人类了」。Elon 公开呼吁采取各种措施来应对 AGI 的危险,从自愿暂停到监管,但他的呼吁在很大程度上被置若罔闻。

然而,在有些人像 Elon 一样看到 AGI 对人类的生存威胁的同时,其他人则将 AGI 视为利润和权力的来源。

2014年,谷歌收购了 DeepMind,这是一个专注于深度学习的研究机构。DeepMind 的初始发展之一是 AlphaZero,一个下棋的算法。然而,与之前的算法不同,AlphaZero 使用了「强化学习」,在这个过程中,程序通过与软件的不同版本下棋来学习下棋。它开始时是随机下棋,对游戏策略一无所知。当一个软件版本在与另一个版本的比赛中获胜时,获胜程序的内部路径会被「强化」,然后这个过程会重复。

AlphaZero 迅速成为世界上最强大的下棋系统。令人震惊的是,它还被宣布成为世界上最擅长玩另外两种极其困难的游戏的系统。用谷歌/DeepMind 的话说,「从随机下棋开始,除了游戏规则之外没有领域知识,AlphaZero 在 24 小时内在国际象棋和日本将棋(Shogi)以及围棋中达到了超人类的水平,并在每种情况下都令人信服地击败了世界冠军程序。」

因为有 DeepMind 团队,谷歌迅速在 AGI 竞赛中取得领先。Elon 对此深感不安。他相信——现在仍然相信,在像谷歌这样的闭源、营利性公司手中,AGI 对人类构成了特别尖锐和有害的危险。2014年,与谷歌在其核心业务中竞争已经足够困难。谷歌从我们的搜索、电子邮件以及几乎我们图书馆中的每本书中收集了独特大量的数据。然而,到目前为止,每个人都有可能通过卓越的人类智力和努力工作来与谷歌竞争。AGI 将使这种竞争变得几乎不可能。

B. OpenAI, Inc.的创立协议 

Sam Altman 声称他与 Elon 一样担心 AGI 带来的威胁。2015 年,Sam 写道,「超人类机器智能(SMI)的发展可能是对人类持续存在的最大威胁。」他认为还有其他威胁更有可能发生...但不太可能像SMI那样摧毁宇宙中的每一个人类。同年晚些时候,Sam 向 Elon 提出了一个提议:他们联合起来成立一个非营利的 AI 实验室,以追赶谷歌在 AGI 竞赛中的步伐,但这将与谷歌截然不同。他们同意这个新实验室:

(a)将是一个非营利组织,开发 AGI 是为了全人类的利益,而不是为了追求最大化股东利润的营利公司;

(b)将是开源的,仅在对抗性安全考虑的情况下平衡,不会为了专有商业目的而封闭其技术(“创立协议”)。

反映创立协议的一个细节是,Elon 将这个新的 AI 实验室命名为 OpenAI,它将与谷歌/DeepMind 竞争,并作为 AGI 竞赛中的重要制衡力量,但这样做是为了造福人类,而不是为了私人营利公司的股东利益(更不用说是全球最大的技术公司之一)。

创立协议也在 OpenAI, Inc. 2015 年 12 月 8 日的公司章程中得到了体现,该章程确认其「产生的技术将惠及公众,公司将在适用时寻求为公众利益开源技术。公司不是为任何个人的私人利益而组织的。」该章程进一步确认,公司的所有财产「不可撤销地致力于」这些约定的目的。

依赖于创立协议,Elon 成为 OpenAI, Inc. 创立的主要推动力量,在其最初的几年中提供了大部分资金,就研究方向提供建议,并且最重要的是,招募了一些世界上最顶尖的科学家和工程师在这家非营利企业工作,包括首席科学家 Ilya Sutskever。

在谷歌/DeepMind 的不懈招募努力和提供的丰厚薪酬下,为 OpenAI, Inc. 招募人才是一项艰巨的任务。如果没有 Elon 的创立贡献和早期领导,就不会有 OpenAI, Inc. 从创立到 2020 年 9 月 14 日,Elon 持续在向 OpenAI, Inc. 投入资源和精力。

OpenAI 最初的研究是开源的,为设计、模型和代码提供免费和公开的访问。当 OpenAI, Inc.的研究人员发现一种名为 Transformers 的算法(最初由 Google 发明)可以在没有任何明确训练的情况下执行许多自然语言任务时,整个社区开始增强和扩展 OpenAI, Inc. 发布的模型。这些社区既有开源的草根组织,也有商业实体。

Sam 于 2019 年成为 OpenAI, Inc. 的首席执行官。2020 年 9 月 22 日,OpenAI 与微软签订了一项协议,将其 GPT-3 语言模型的独家许可权授予微软。然而,OpenAI 发布了一份详细的论文,描述了 GPT-3 的内部结构和训练数据,使社区能够自行创建类似的模型。最重要的是,微软的许可权仅适用于 OpenAI 的预 AGI 技术。微软没有获得 AGI 的权利。而且,决定 OpenAI 何时实现 AGI 的是 OpenAI, Inc. 的非营利董事会,而不是微软。

C. 2023 年违反创立协议

2023 年,Sam Altman、Greg Brockman 和 OpenAI 将创始协议付之一炬。 

2023 年 3 月,OpenAI 发布了迄今为止最强大的语言模型 GPT-4。GPT-4 不仅能够进行推理,它比普通人更擅长推理。它在统一律师资格考试中的得分排在第 90 位。在 GRE 语言评估中,它的得分达到了 99%。它甚至在高级侍酒师考试中获得了 77% 的高分。此时,Sam 使 OpenAI 彻底背离了其最初的使命和向公众提供技术和知识的历史惯例。GPT-4 的内部设计被完全保密,除了对 OpenAI 以及微软(根据了解和相信)之外,GPT-4 的内部设计被完全保密。没有任何科学出版物介绍 GPT-4 的设计。相反,只有吹嘘性能的新闻稿。据了解,这种保密主要是出于商业考虑,而非安全考虑。

虽然 GPT-4 是 OpenAI 利用 Elon 和其他人的贡献开发出来的,旨在造福公众,但它现在事实上已经成为微软的专利算法,微软已将其集成到其 Office 软件套件中。

此外,据 Elon 所知,GPT-4 是一个 AGI 算法,因此明确超出了微软与 OpenAI 在 2020年 9 月的独家许可协议的范围。在这方面,微软自己的研究人员公开表示,鉴于 GPT-4 的能力和深度,「我们认为它可以合理地被视为一个早期(尽管还不完整)的通用人工智能(AGI)系统。此外,据 Elon 所知,OpenAI 目前正在开发一个名为 Q* 的模型,它对 AGI 的主张甚至更强。如上所述,微软仅对 OpenAI 的某些预 AGI 技术拥有权利。但就微软许可协议而言,决定 OpenAI 是否实现了 AGI,以及何时开发出超出微软许可范围的算法,是由 OpenAI, Inc. 的董事会决定的。 

2023 年的这些事件构成了对创立协议的公然违反,Sam 基本上推翻了这一协议。至今,OpenAI, Inc. 的网站仍然宣称其章程是为了确保 AGI「惠及全人类」。然而,实际上,OpenAI, Inc. 已经被转变为微软这个世界上最大的技术公司的事实上的闭源子公司。在其新的董事会领导下,它不仅正在开发 AGI,而且实际上正在完善 AGI,以最大化微软的利润,而不是为了人类的利益。其技术,包括 GPT-4,主要是为了服务于微软的专有商业利益而保持封闭。事实上,正如 2023 年 11 月的戏剧性事件展开时,微软的 CEO 夸口说,即使「OpenAI 明天消失」,也无关紧要。他解释说,「我们拥有所有的知识产权和所有能力。」 「我们有人才,我们有算力,我们有数据,我们拥有一切。」 「我们在他们之下,他们之上,他们左右」。

Elon 发起诉讼是为了迫使 OpenAI 遵守创立协议,并回归其使命,即为人类的利益开发AGI,而不是为了 Sam 个人和世界上最大的技术公司的利益。

D. Elon 对 AGI 落入错误之手的担忧

2012 年,Elon Musk 会见了 DeepMind 的创始人 Demis Hassabis,这是一家营利性人工智能公司。大约在那个时候,Elon 和 Demis 在加利福尼亚州霍桑的 SpaceX 工厂会面,讨论了人类社会面临的最大威胁。在这次对话中,Demis 强调了人工智能发展对社会潜在的危险。

在与 Demis 的那次会谈之后,Elon 越来越担心 AI 可能变得超智能,超越人类智能,并威胁到人类。事实上,担心 AI 危险和 DeepMind 正在进行的研究的人不止 Elon 一个。据报道,在与 Demis 和 DeepMind 的投资者会面后,一位投资者评论说,他为人类所做的最好的事情就是当场枪杀 Demis。

Elon 开始与他的圈子里的人讨论 AI 和 DeepMind,例如当时谷歌母公司 Alphabet Inc.的 CEO Larry Page。Elon 经常在与 Larry 的对话中提出 AI 的危险性,但令 Elon 震惊的是,Larry 对此并不关心。例如,在 2013 年,Elon 与 Larry 就 AI 的危险性进行了激烈的辩论。他警告说,除非采取安全措施,「人工智能系统可能会取代人类,使我们的物种变得无关紧要甚至灭绝。」Larry 回应说,那将仅仅是「物种进化的下一个阶段」,并声称 Elon 是「物种主义者」——即偏爱人类物种而非智能机器。Elon 回应说:「是的,我是支持人类的。」

在 2013 年底,Elon 得知谷歌计划收购 DeepMind,这让他深感担忧。当时,DeepMind 是业界最先进的人工智能公司之一。因此,Elon 非常担心 DeepMind 的 AI 技术会落入那些对它的力量如此轻率的人手中,并可能将其设计和能力隐藏在封闭的大门后面。

为了防止这项强大的技术落入谷歌手中,Elon 和 PayPal 联合创始人 Luke Nosek 试图筹集资金收购 DeepMind。这一努力在一次长达一小时的电话会议中达到巅峰,Elon 和 Luke 最后一次努力说服 Demis 不要将 DeepMind 卖给谷歌。Elon 告诉 Demis,「人工智能的未来不应该由 Larry Page 控制。」

Elon 和 Luke 的努力未能成功。2014 年 1 月,有报道称 DeepMind 将被谷歌收购。然而,这并没有阻止 Elon 继续确保人工智能的安全发展。

在谷歌收购 DeepMind 之后,Elon 开始主持自己的一系列晚餐讨论会,探讨如何对抗谷歌并促进人工智能安全。Elon 还联系了时任美国总统奥巴马,讨论人工智能和人工智能安全。2015 年,Elon 和奥巴马总统会面,Elon 解释了人工智能的危险性,并主张进行监管。Elon 认为奥巴马总统理解了人工智能的危险性,但监管从未到来。

尽管遭遇了这些挫折,Elon 依然继续倡导安全的人工智能实践。2015 年,Elon 似乎找到了一个理解他对人工智能的担忧以及他希望第一个 AGI 不要落入像谷歌这样的私人公司手中的人:Sam Altman。

当时,Sam 是硅谷创业加速器 Y Combinator 的总裁。在此之前,Sam 曾参与过各种创业项目。

Sam 似乎与 Elon 对人工智能的担忧有共鸣。早在 2014 年,Sam 就在公开博客文章中表示,如果实现了 AGI,那将是「技术发展史上最大的进步」。Sam 指出,有许多公司正在朝着实现 AGI 迈进,但他承认「做得好的公司对此非常保密」。

2015 年 2 月 25 日,Sam 还表达了他对所谓的「超人类机器智能」发展的担忧,他认为这是「对人类持续生存的最大威胁」,并强调「作为一个被编程生存和繁衍的人类,我觉得我们应该对抗它」。此外,Sam 批评了那些认为「超人类机器智能」危险但认为它「永远不会发生或者肯定还很遥远」的人,指责他们进行了「草率、危险的思考」。

事实上,在 2015 年 3 月初,Sam 赞扬了政府监管的重要性,作为确保人工智能安全创造的手段,并建议「一群非常聪明的人,拥有大量资源」可能涉及「美国公司以某种方式」最有可能首先实现「超人类机器智能」。

当月晚些时候,Sam 联系 Elon,询问他是否有兴趣起草一封致美国政府的公开信,讨论人工智能问题。两人开始准备信件,并接近科技和人工智能领域的有影响力的人物,邀请他们签署。不久,整个行业都听到了有关这封信的传言。

例如,在 2015 年 4 月,Demis 联系 Elon,表示他从多个来源听说 Elon 正在起草一封致总统的公开信,呼吁对人工智能进行监管。Elon 为人工智能监管的想法辩护,对 Demis 说:「如果做得好,它可能会在长期内加速人工智能的发展。如果没有公众对监管监督提供的舒适感,可能会出现一种情况,即人工智能造成巨大伤害,然后人工智能研究因对公共安全的危险而被禁止。」

五天后,Demis 就人工智能的公开信联系 Elon,谷歌 DeepMind 人工智能伦理委员会举行了首次会议,这是一个两年前谷歌收购 DeepMind 时承诺成立的委员会。Elon 被邀请加入委员会,并提议首次会议在加利福尼亚州霍桑的 SpaceX 举行。在第一次会议后,Elon 意识到这个委员会并不是一个严肃的努力,而是一个试图减缓任何人工智能监管的幌子。

这封公开信后来于 2015 年 10 月 28 日发表,并由包括 Elon、斯蒂芬·霍金和史蒂夫·沃兹尼亚克在内的一万多人签署。

E. OpenAI, Inc. 的创立协议

2015 年 5 月 25 日,Sam 通过电子邮件告诉 Elon,他「一直在思考是否有可能阻止人类发展人工智能。我认为答案几乎肯定是不可能的。如果它要发生,似乎对除了谷歌以外的其他人来说更好。」Sam 有一个想法:Y Combinator 可以为人工智能启动一个「曼哈顿计划」(不幸的是,事实证明,「曼哈顿计划」这个名称可能过于贴切)。他提议「我们可以将其构建为一种非营利组织,但团队如果成功,可以获得类似创业公司的报酬。显然,我们会遵守/积极支持所有规定。」Elon 回应说:「可能值得一谈。」

在进一步的沟通之后,Sam 于 2015 年 6 月 24 日通过电子邮件向 Elon 提出了这个新「人工智能实验室」的详细提议。「使命将是创建第一个通用人工智能,并将其用于个人赋权——即,看起来最安全的分布式的未来。更一般地说,安全应该是一个首要要求。」「技术将归基金会所有,并用于人类的利益。」他提议从 7 - 10 人的团队开始,然后扩大规模。他还提出了一个治理结构。马斯克先生回应说:「我同意所有这些提议。」

不久之后,Sam 开始招募其他人帮助开发这个项目。值得注意的是,Sam 接近 Greg Brockman 来帮助这个项目。

2015 年 11 月,Sam 通过电子邮件将 Greg 介绍给 Elon。关于这个项目,Greg 告诉 Elon,「我希望我们作为一个中立团体进入这个领域,寻求广泛合作,将对话转向关于人类的胜利,而不是任何特定团体或公司。(我认为这是我们成为领先研究机构的最佳方式。)」对一个中立的人工智能研究团体持乐观态度,专注于人类而非任何特定个人或团体的利润,Elon 告诉 Greg,他承诺将提供资金。

Elon 为新实验室想出了一个名字,这个名字反映了创立协议:Open AI Institute,或者简单地说,OpenAI。

考虑到创立协议的原则,Elon 与 Sam 和 Greg 联手正式化并启动了这个项目。Elon 在项目公开宣布之前就积极参与其中。例如,Elon 就员工的薪酬方案向 Greg 提供建议,与 Greg 分享他的薪酬和留住人才的策略。

2015 年 12 月 8 日,OpenAI, Inc. 的公司章程在特拉华州州务卿处备案。该章程以书面形式纪念了创立协议:

第三:本社团将是一个非营利社团,专门为慈善和/或教育目的组织,符合 1986 年美国国内税收法第 501(c)(3) 节的意义,或任何未来美国国内税收法的相应规定。本社团的具体目的是为与人工智能相关的技术研究、开发和分发提供资金。产生的技术将惠及公众,社团将在适用时寻求为公众利益开源技术。社团不是为了任何个人的私人利益而组织的。...

第五:本社团的财产不可撤销地致力于本文第三条所述的目的,本社团的净收入或资产的任何部分都不得用于任何董事、高级职员或成员的利益,也不得用于任何私人个人的利益。在本社团解散或清算时,其剩余资产在支付或准备支付所有债务和责任后,应分配给一个非营利基金、基金会或社团,该基金、基金会或社团专门为慈善、教育和/或宗教目的组织并运营,并已根据国内税收法第 501(c)(3) 节或任何未来联邦税法的相应条款确立其免税地位,或者分配给联邦政府,或者分配给州或地方政府,用于公共目的。

OpenAI, Inc. 在 2015 年 12 月 11 日公开宣布。在公告中,Elon 和 Sam 被任命为联席董事长,Greg 被任命为 CTO。公告强调 OpenAI 旨在「造福全人类」,其研究将「不受财务义务的约束」:

OpenAI 是一家非营利的人工智能研究公司。我们的目标是以最有可能造福全人类的方式推进数字智能,不受产生财务回报需求的约束。由于我们的研究不受财务义务的约束,我们可以更好地专注于积极的人类影响。

F. Elon 在 OpenAI, Inc. 起步阶段的关键作用

在公开宣布的当天,Elon 在电子邮件中写道,「我们最重要的考虑是招募最优秀的人才。」他承诺,帮助招募工作将是他「24/7 的绝对首要任务」。他承认,「我们在人数和火力上远远落后于你知道的其他组织,但我们有正义在手,这很重要。我喜欢这些可能性。」Elon 利用他的人脉、地位和影响力进行了努力。OpenAI, Inc. 是由 Elon 赞助发起的,Elon 担任联系董事长,这对 OpenAI, Inc. 的招聘工作至关重要,尤其是在面对谷歌/DeepMind 的反招募时。如果没有 Elon 的参与和他为创立协议提供的重要支持,努力和资源,OpenAI, Inc. 很可能永远不会起步。

最初的重要聘用之一是首席科学家的角色。Sam、Greg 和 Elon 都希望 Ilya Sutskever,当时是谷歌的研究科学家,担任这一角色。Ilya 博士在是否离开谷歌加入该项目上犹豫不决,但最终是在 OpenAI, Inc. 公开宣布的当天,Elon 的一个电话说服 Ilya 博士承诺加入项目,成为 OpenAI, Inc. 的首席科学家。

在接下来的几个月里,Elon 积极为 OpenAI, Inc. 招募人才。谷歌/DeepMind 为了杀死这个新企业,向 OpenAI, Inc. 招聘的人员提出了越来越丰厚的反招聘。在二月底,Elon 通过电子邮件告诉 Greg 和 Sam,重申「我们需要不惜一切代价吸引顶尖人才。让我们出更高的价。如果某个时候,我们需要重新审视现有人员的薪酬,那也没关系。要么我们吸引世界上最好的人才,要么我们就会被 DeepMind 打败。为了吸引顶尖人才,我愿意付出任何代价。DeeMind 给我带来了极大的心理压力。如果他们赢了,他们的一心想要统治世界的哲学将会带来真正的坏消息。他们显然在那里取得了重大进展,而且他们应该在这样做,因为他们拥有那里的人才水平。」

Elon 不仅仅是利用他的人脉和影响力为 OpenAI, Inc. 招募人才。当他告诉 Greg 和 Sam提高报价并「不惜一切代价吸引顶尖人才」时,他是在资助这些更高的报价。仅在 2016 年,Elon 就向 OpenAI, Inc. 捐款超过 1500 万美元,超过了任何其他捐赠者。他提供的资金使 OpenAI, Inc. 能够组建一支顶尖团队。同样,在 2017 年,Elon 向 OpenAI, Inc. 捐款近 2000 万美元,再次超过了任何其他捐赠者。总的来说,从 2016 年到 2020 年 9 月,Elon 向 OpenAI, Inc. 捐款超过 4400 万美元。

此外,通过 Musk Industries LLC,Elon 租赁了 OpenAI, Inc. 在旧金山先锋大厦的初始办公空间,并支付了每月的租金。Elon 定期访问 OpenAI, Inc.,并出席重要的公司里程碑活动,例如 2016 年向 OpenAI, Inc. 捐赠第一台 DGX-1 AI 超级计算机。Elon 会收到 OpenAI, Inc. 的进展更新,并提供他的反馈和建议。

G. Sam 和 Greg 一再重申创立协议

2017 年,Greg 和其他人建议将 OpenAI, Inc. 从非营利组织转变为营利公司。经过几周的一系列沟通,Elon 告诉 Greg、Ilya 和 Sam,「要么各回各家,要么继续作为非营利组织运营 OpenAI。在我做出坚定承诺之前,我将不再资助 OpenAI,否则我就是在愚蠢地为一家初创企业提供免费资金。讨论结束。」

作为回应,Sam 告诉 Elon,「我仍然对非营利结构充满热情!」最终,Greg 和 Ilya 向 Elon 传达了他们的决心,即他们也将致力于非营利结构,并计划在未来一年致力于筹款以支持非营利组织。

2018 年 2 月 21 日,Elon 辞去了 OpenAI, Inc. 联席董事长的职务。尽管如此,Elon 依据创立协议继续为 OpenAI, Inc. 捐款。在 2018 年,Elon 向 OpenAI, Inc. 捐赠了大约 350 万美元。他继续从 Greg、Ilya 和 Sam 那里接收关于 OpenAI, Inc. 的更新。

2018 年 4 月,Sam 向 Elon 发送了一份 OpenAI 宪章草案,并征求他的意见。草案将 OpenAI 的使命描述为确保 AGI「惠及全人类」。它指出,「我们承诺利用我们对 AGI 部署的任何影响力,确保它被用于所有人的利益,并避免使 AI 或 AGI 的使用对人类造成伤害或过度集中权力。我们的首要信托责任是对全人类。我们预计需要动员大量资源来履行我们的使命,但将始终努力最小化可能损害广泛利益的利益冲突。」

2019 年 3 月 11 日,OpenAI, Inc. 宣布将创建一个营利性子公司:OpenAI, L.P. 潜在投资者在总结条款表的顶部收到一个「重要警告」,即营利实体「存在是为了推进 OpenAI Inc.(非营利组织)的使命,即确保安全开发人工通用智能并惠及全人类。普通合伙人对这一使命和 OpenAI Inc. 宪章中提出的原则的义务优先于任何盈利义务。」因此,投资者被明确告知,「明智的做法是将对 OpenAI LP 的任何投资视为捐赠。」

在公告之后,Elon 联系 Sam,要求他「明确表示我对 OpenAI 营利部分没有任何财务利益。」随后,Elon 继续支持 OpenAI, Inc. 非营利组织,在 2019 年额外捐赠了 348 万美元。

2020 年 9 月 22 日,OpenAI 宣布将其某些预 AGI 技术独家许可给微软。与创立协议一致,OpenAI 的网站声明,AGI 被描述为「一种高度自主的系统,其在大多数经济价值工作中的表现超越人类」,「不包括在与微软的知识产权许可和其他商业条款中,这些条款仅适用于预 AGI 技术。」然而,OpenAI 的董事会「决定我们何时实现了 AGI。」

H. OpenAI 的公司结构变化

在宣布 OpenAI, L.P. 之后的几年里,OpenAI 的公司结构变得越来越复杂。OpenAI, L.L.C.于 2020 年 9 月 17 日在特拉华州成立。OpenAI, L.L.C. 的唯一成员是 OpenAI OpCo, LLC。

OpenAI OpCo, LLC 于 2018 年 9 月 19 日在特拉华州成立,其唯一成员是 OpenAI Global, LLC。

OpenAI Global, LLC 于 2022 年 12 月 28 日在特拉华州成立。据信,OpenAI Global, LLC 与 OpenAI, L.P. 一样,是一个有上限的营利实体。OpenAI Global, LLC 有两个成员:微软公司和 OAI Corporation, LLC。

OAI Corporation, LLC 是一家在特拉华州成立的有限责任公司。OAI Corporation, LLC 的唯一成员是 OpenAI Holdings, LLC。

OpenAI Holdings, LLC 于 2023 年 3 月 17 日在特拉华州成立,拥有多个成员,包括OpenAI, Inc., Aestas, LLC 和各种个人成员。

据信,OpenAI, Inc. 通过其普通合伙人 OpenAI GP, L.L.C. 管理 OpenAI, L.P. 和 OpenAI Global, LLC。OpenAI GP, L.L.C. 于 2018 年 9 月 19 日在特拉华州注册为有限责任公司。OpenAI GP, L.L.C. 完全由 OpenAI, Inc.(非营利组织)拥有,并由非营利组织的董事会控制。根据 OpenAI 的章程,董事会对股东没有信托责任;相反,其唯一的信托责任是对全人类。

据信,至少 OpenAI, L.P. 和 OpenAI GP LLC 最初是为了促进和资助 OpenAI, Inc. 的非营利使命而成立的,该使命在创立协议中有所规定。

F. OpenAI 技术的发展——从 AI 到 AGI

OpenAI 最初的工作在很大程度上遵循了 DeepMind 的脚步。OpenAI 使用强化学习来玩一个游戏。不过,与下棋不同,OpenAI 参加了Dota 2 比赛,这是一款策略视频游戏,其移动元素比象棋多得多。OpenAI 的团队迅速构建了一个新模型,击败了当时的世界冠军团队,展示了「自我对弈强化学习可以在困难任务上实现超人表现」。

与此同时,谷歌发明了一个名为 Transformer 的算法,解决了深度学习在理解长文本序列方面所面临的许多问题。这个算法,一个「大型语言模型」的例子,被开发出来用于将文本从一种语言翻译成另一种语言,通过在源语言中的单词之间建立联系,并将这些联系映射到目标语言。

OpenAI 的研究人员继续这项研究,并迅速取得了另一个惊人的成果:通过使用谷歌 Transformer 架构的前半部分,可以在大量文本上预训练深度神经网络,并用于生成新文本。2018 年 1 月,OpenAI 发布了这个生成预训练 Transformer(GPT)的源代码和训练模型,以及详细描述模型及其能力的论文。

2019 年,OpenAI 发布了第二代模型 GPT-2。发布时同样附带了详细描述模型的论文,并指出,与需要在特定任务上训练的先前模型不同,「当大型语言模型在足够大且多样化的数据集上训练时,它能够在许多领域和数据集上表现良好。」这些模型证明了自己与以前的 AI 系统非常不同。与其训练系统执行特定任务,不如简单地用自然语言「询问」执行新任务。

正如创立协议所预期的那样,OpenAI 公开发布了 GPT-2 的完整版本。值得注意的是,尽管「人类发现 GPT-2 的输出令人信服」,「GPT-2 可以被微调用于滥用」,并且「检测(GPT 生成的文本)具有挑战性」,但 OpenAI 当时表示,它希望「将完整、开放的版本发布出去,对开发未来强大模型的开发者有用。」这次发布伴随着由 OpenAI 科学家以及独立社会和技术科学家共同撰写的详细论文。这篇论文解释了公开发布模型相对于保持封闭的一些好处。

他们的出版物确实对开发未来强大模型的开发者有用。整个社区开始增强和扩展 OpenAI 发布的模型。这些社区扩展到开源的草根组织和商业实体。

2020 年,OpenAI 宣布了其模型的第三个版本 GPT-3。它使用了「1750 亿参数,比任何以前的非稀疏语言模型多 10 倍。」同样,OpenAI 宣布了这一模型的开发,并发布了描述其完整实现的研究论文,供其他人在此基础上构建。

2022 年,谷歌的研究人员展示了一个名为链式思维提示的小变化,可以使「大型语言模型执行复杂的推理。」东京大学和谷歌的研究人员迅速扩展了谷歌的成果,并展示了 OpenAI 的 GPT-3 可以通过简单地在每个答案前添加「让我们一步一步思考」来解决一个全新的问题,就像人类一样。

一条通往人工通用智能的道路已经可以看到,而且,实现它的时间线被大大压缩了。

2023 年 3 月 14 日,OpenAI 发布了其模型的新一代 GPT-4。这一代模型不仅仅是能够推理,而且比平均人类更擅长推理。GPT-4 在统一律师考试中得分在 90%。它在GRE语言评估中得分在 99%。它甚至在高级侍酒师考试中得分 77%。根据 OpenAI 自己的客观衡量标准,GPT-4 已经在多种经济价值任务上具备超越人类的智能。

这一发展并没有被研究社区忽视。在一篇名为「人工通用智能的火花:GPT-4 的早期实验」的详细分析中,微软研究人员指出,「GPT-4 可以解决跨越数学、编码、视觉、医学、法律、心理学等领域的新颖且困难的任务,而无需任何特殊提示。此外,在所有这些任务中,GPT-4 的表现与人类水平的表现惊人地接近,通常远远超过以前的模型,如基于 GPT-3.5 的 ChatGPT。」

他们将 GPT-4 的表现与基于 GPT-3 的系统的表现进行了比较,并发现「GPT-4 的输出与 GPT-3 的输出无法比较。」在数学问题上,他们表明「GPT-4 给出的解决方案是正确的,论证是合理的,而 ChatGPT(基于 GPT-3)产生了一个错误的解决方案,这在人类情况下会反映出对函数反转概念的理解不足。」在另一个例子中,他们表明「GPT-4 给出了正确的解决方案,而 ChatGPT 开始时没有明确的方向或目的,只是重新排列术语,最终得出了错误的解决方案。」

微软自己的科学家承认 GPT-4「达到了一种通用智能的形式」,并且「鉴于 GPT-4 的能力范围和深度,我们认为它可以合理地被视为一个早期(尽管还不完整)的人工通用智能(AGI)系统。」

G. 2023年创立协议被违反 

在达到 AGI 的门槛之后,根据创立协议,他们本应为人类的利益而不是任何营利公司或个人利益开发 AGI,Sam 和 OpenAI 却从根本上背离了他们的使命,违反了创立协议。GPT-4 是一个完全封闭的模型。GPT-4 的内部设计仍然是一个秘密,没有发布任何代码。OpenAI 没有发布描述其内部设计的论文;它只是发布了吹嘘其性能的新闻稿。GPT-4 的内部细节只有 OpenAI 知道,据信还有微软。因此,GPT-4 与「「开源 AI」相反。它是为了专有商业原因而封闭的:微软有望通过向公众销售 GPT-4 赚取巨额利润,这在 OpenAI(如其所需)向公众免费提供技术的情况下是不可能的。与创立协议相反,被告选择使用 GPT-4 不是为了人类的利益,而是作为专有技术来最大化世界上最大的公司的利润。此外,OpenAI 的整个开发现在都被保密,公众只有谣言和孤立的信息碎片来了解接下来可能发布的内容。

研究人员指出,基于 GPT 架构的 AI 的一个剩余限制是它们一次生成一部分输出,并且不能「回溯」。这些问题在人工智能研究中已经出现过,并且对于其他应用来说已经基本解决了。在路径和迷宫寻找中,AI必须能够在存在死胡同的情况下找到正确的路径。执行此操作的标准算法称为「A*」(发音为A-star)。

路透社报道称,OpenAI 正在开发一个名为 Q* 的秘密算法。虽然目前尚不清楚 Q* 是什么,但路透社报道称,几名 OpenAI 员工写了一封信,警告 Q* 的潜在力量。看起来 Q* 现在或将来可能是 OpenAI 开发的一个更清晰、更明显的 AGI 的例子。作为一个 AGI,它明确超出了 OpenAI 与微软的许可协议范围,必须为大众的利益而公开。

就微软的许可协议而言,OpenAI, Inc. 的董事会决定 OpenAI 是否达到了 AGI,而在一系列令人震惊的发展中,OpenAI, Inc. 的董事会在 2023 年 11 月 22 日被迫辞职,他们的替代者据信是由 Sam 和微软挑选的。

2023 年 11 月 17 日,OpenAI, Inc. 的董事会解雇了 Sam。OpenAI 在一篇博客文章中宣布,Sam 被解雇了,他的离职是「董事会经过深思熟虑的审查过程后的结果,该过程得出结论,他在与董事会的沟通中并不总是坦诚,妨碍了董事会履行其职责。董事会不再相信他继续领导 OpenAI 的能力。」

Greg 也被从董事会中移除,但被告知他将保留在 OpenAI 的角色。

那时,董事会由 Helen Toner、Adam D'Angelo、Tasha McCauley、Ilya、Greg 和 Sam 组成。除了在董事会任职外,Helen 还是治理人工智能中心(GovAI)的研究员和顾问,以及乔治城大学安全和新兴技术中心的战略总监。Tasha 是 RAND 公司的高级管理科学家,这是一个专门从事公共政策决策的非营利组织。她还是 GovAI 的顾问。Adam——在 Sam 重组董事会后唯一留在董事会的成员——是一位科技行业 CEO 和企业家。

在 OpenAI, Inc. 的董事会中包括多位学者和公共政策专家,他们对公司没有财务利益,这是故意为之。这种由财务上不感兴趣的董事会成员组成的董事会,拥有强大的公共服务记录,确保董事会将把非营利组织的主要受益人——人类——置于财务成功之前。这种保障措施是为了推进 OpenAI, Inc. 的非营利使命和创立协议:安全地创建 AGI,使其造福人类,而不是营利公司的财务利益。

据信,Sam 被解雇的部分原因是 OpenAI 在实现 AGI 方面的突破。事实上,新闻报道称,OpenAI 董事会成员和高管之间存在分歧,关于安全问题和 OpenAI 下一代 Q* 可能带来的潜在威胁。

Sam 被解雇的消息迅速传播。在董事会宣布 Sam 被解雇后,Greg 宣布他将与 Sam 一起离开 OpenAI。

当微软 CEO Satya Nadella 得知Sam 被解雇时,据报道他非常愤怒。作为 OpenAI 营利部分的 49% 股东,Satya 认为在解雇 Sam 之前应该咨询微软。然而,那时,除了 Sam 之外,OpenAI, Inc. 的董事会与微软没有联系,也没有对投资者的信托责任。相反,据信 Sam 是微软和 OpenAI, Inc. 之间的主要联络人。

Satya 邀请 Sam 和 Greg 领导一个新的微软 AI 研究实验室,不受 OpenAI, Inc. 人道主义使命的约束。Satya 明确表示,离开 OpenAI 的员工将受到微软新实验室的欢迎,并享有相同的薪水。

微软对其在 OpenAI 营利部分的大量所有权充满信心,认为如果公司不存在,它可以完全控制 OpenAI, Inc. 的研究。事实上,在 Sam 被解雇后不久的一次采访中,Satya 说:「我们对自己的能力非常有信心。我们拥有所有的知识产权和所有能力。如果 OpenAI 明天消失了,我不希望我们的任何客户为此担心,因为我们拥有继续创新的所有权利。不仅仅是为了服务产品,我们可以自己做我们与合作伙伴一起做的事情。我们有人,我们有计算能力,我们有数据,我们拥有一切。」

尽管微软表示他们有能力在没有 OpenAI 的情况下运作,但微软从未放弃确保 Sam 重新担任 OpenAI, Inc. CEO 的计划。在 Sam 被解雇后的几天里,OpenAI, Inc. 的董事会面临着来自律师和主要股东(包括微软)的越来越大的压力,要求重新任命 Sam 为 CEO。

Helen 特别成为重新任命 Sam 努力的目标。在这些努力中,OpenAI 的一名律师告诉 Helen,如果 OpenAI 因 Sam 被解雇而失败,她和董事会可能会面临违反对投资者信托责任的索赔。

然而,OpenAI, Inc. 董事会从未对投资者承担过信托责任。事实上,营利部分的所有投资者都被告知,公司对其使命的责任优先于对其投资者的责任,OpenAI, Inc. 的网站明确表示,它只对人类承担信托责任。

Helen 将律师的行为描述为恐吓手段,她认为 Sam 的离职实际上将通过促进人类安全而非利润来推进公司使命。然而,这并没有说服股东和放弃重新任命 Sam 的努力。

此外,微软对 OpenAI, Inc. 及其董事会拥有相当大的控制力。在 Sam 被解雇期间,CEO Satya 对微软与 OpenAI 的关系发表了以下评论:「我们在其中,我们在他们下面,上面,周围。我们做内核优化,我们构建工具,我们构建基础设施。这就是为什么很多工业分析师说,哦,哇,这真的是微软和 OpenAI 之间的联合项目。现实是,我们在这方面非常自给自足。」

此外,在解雇时,微软只支付了其对 OpenAI 的 10 亿美元投资承诺的一小部分,这给了微软对「独立」非营利董事会的严重影响力。此外,如果微软停止提供 OpenAI 所依赖的云计算系统,公司将无法运作。

董事会面临来自 Sam 和微软的压力持续不断,直到 11 月 21 日,Sam 被重新任命为 OpenAI, Inc. 的 CEO,Greg 重新加入为总裁。Sam 回归的条件之一是 Helen、Tasha 和 Ilya 从董事会辞职。

据信,在 Sam 返回后,他精心挑选了一个新的董事会,这个董事会缺乏类似前任董事会的技术专长或对 AGI 和 AI 公共政策的深入了解。Adam,一位科技行业 CEO 和企业家,是唯一在 Sam 返回后留在董事会的前任成员。新董事会由在利润为中心的企业或政治方面拥有更多经验的成员组成,而不是在 AI 伦理和治理方面。他们还被报道为「Sam 的粉丝团」。新董事会成员包括 Bret Taylor 和 Larry Summers。Bret 对硅谷并不陌生,他曾深度参与湾区的各种以利润为导向的风险投资。2024 年 2 月 14 日,Bret 和前谷歌高管 Clay Bavor 推出了一家专注于为企业构建 AI 聊天机器人的创业公司。据信,Larry 是一位经济学家,在 2013 年 11 月之前没有在基于人工智能的企业中工作过。微软还在董事会上获得了一个观察员席位,以便密切关注其表面上非营利的摇钱树。

随着 Sam 的重新任命和董事会的重组,OpenAI 的公司结构,原本设计为非营利部门、营利部门、董事会和首席执行官之间的制衡系统,以确保非营利使命得到执行,一夜之间崩溃。OpenAI, Inc. 曾经精心打造的非营利结构被一个纯粹以利润为导向的首席执行官和一个在 AGI 和 AI 公共政策方面技术专长较差的董事会所取代。董事会现在有一个专门为微软保留的观察员席位。随着这次重组,OpenAI, Inc. 放弃了其非营利使命,即开发 AGI 以广泛造福人类,从而将其置于大型营利公司的掌控之中,这与创立协议背道而驰。

OpenAI, Inc. 董事会在 AI 方面的技术专长、中立性和对 OpenAI, Inc. 非营利使命的承诺对于 OpenAI, Inc. 的使命尤为重要,因为正是董事会负责确定 OpenAI 是否达到了 AGI,以便根据其与微软的许可协议进行判断。这意味着董事会的任务是确定 OpenAI 最强大、最先进的技术是否实际上被排除在微软独家许可的范围之外。

OpenAI 的行为可能对硅谷产生深远影响,如果被允许继续下去,可能代表技术初创公司的范式转变。重要的是要反思这里发生的事情:一个非营利初创公司收集了数千万的捐款,明确目的是为公共利益开发 AGI 技术,而在实现公司成立目标的关键时刻,该公司变成了世界上最大的公司的封闭、营利性合作伙伴,从而使 Sam 个人致富。如果这种商业模式是有效的,它将从根本上重新定义加利福尼亚州和其他地方的风险资本实践方式。与其从一开始就作为营利实体,「聪明」的投资者会建立非营利组织,利用税前捐款资助研究和开发,然后在技术被开发和证明之后,将产生的知识产权资产转移到新的营利企业中,以丰富自己和他们的利润最大化的公司合作伙伴。这不应该是这样的法律在加利福尼亚州或这个国家的其他地方运作,这也不应该是第一个法院支持的情况。

为了更好地理解为什么这一点很重要,如果 OpenAI 的新商业模式是有效的,对于每一个投资者通过向非营利组织捐款「投资」的一美元,投资者将从州和联邦政府获得大约 50 美分的减免税款,因此,每投资 1 美元的净成本对他们来说只有 50 美分。然而,随着 OpenAI 的新商业模式,他们获得了与传统方式投资营利公司相同的「营利」上升空间,而这种上升空间并不立即通过政府和最终公众的税收减免来资助。从投资的角度来看,与采用 OpenAI 新商业模式的实体竞争,就像在一场篮球比赛中,对方的篮筐值得两倍的分数。如果法院在此支持 OpenAI 的行为,任何在硅谷寻求保持竞争力的初创公司本质上都将被迫遵循 OpenAI 的剧本,这将成为初创公司的标准操作程序,对合法非营利组织、政府的税收收入以及最终加利福尼亚州和其他地方的人民造成伤害。值得注意的是,OpenAI 的营利部门最近估值接近 800 亿美元。

H. 2023 年 11 月至今:Sam 的 OpenAI

公众仍然对董事会的「深思熟虑的审查过程」揭示了什么导致最初解雇 Sam 的事情一无所知。然而,对 Sam 和广大公众来说,有一点是清楚的:OpenAI 已经放弃了其「不可撤销」的非营利使命,转而追求利润。许多领导人和知识分子公开评论了 OpenAI 成为「封闭、营利性 AI」的讽刺和悲剧。

例如,2023 年 11 月 29 日,麻省理工学院的经济学家在《洛杉矶时报》上发表了一篇观点文章,表达了对 OpenAI 新的利润驱动指令的担忧。在他们的话中,「颠覆和无控制的增长已经成为科技行业的宗教,Sam 一直是其最虔诚的高级祭司之一。」经济学家强调,新董事会更有可能允许 Sam 尽可能快地扩张 OpenAI,无论社会成本有多严重。

公共公民组织(Public Citizen),这是一个非营利消费者倡导组织,其总裁今年早些时候向加利福尼亚州总检察长 Rob Bonta 写了一封公开信,提出了关于 OpenAI 的营利性子公司是否对非营利组织施加了不适当的控制,或者非营利组织的目的是否已经转变为在 Sam 和微软的领导下追求利润的问题。这封信建议,如果非营利组织放弃了其最初的使命,它应该被解散,收益转移到另一个慈善企业。

2024 年 1 月的《连线》(WIRED)调查发现,OpenAI 最近也关闭了公众获取以前可用的「关键文件」的途径。与 OpenAI 自成立以来一直倡导的透明度承诺一致,OpenAI 的 IRS 文件表明,自成立之初,任何公众成员都可以查看其治理文件、财务报表和利益冲突规则的副本。然而,当《连线》请求这些文件时,OpenAI 表示它已经改变了政策。因此,尽管 OpenAI 长期以来一直倡导透明度,公众无法获得提供有关 2023 年 11 月事件的信息的文件。

获取 OpenAI 文件的访问权限可以向公众揭示是否已经改变了其治理以迎合微软和其他股东。至少,必须做出改变以适应微软在董事会上的席位,据称现在 Sam 正在与中东投资者讨论筹集高达 7 万亿美元的资金,以努力开发一个全球 AI 芯片制造工厂网络。如果来自微软的 100 亿美元足以获得董事会席位,那么可以想象这些新的潜在投资可能会给投资者带来多少对 OpenAI, Inc. 的影响力。这尤其令人担忧,当一个潜在的投资者是阿拉伯联合酋长国的国家安全顾问时,美国官员因阿拉伯联合酋长国与中国的联系而感到担忧。此外,Sam 曾谈到可能使阿拉伯联合酋长国成为一个「监管沙箱」,在那里测试 AI 技术。

此外,获取 OpenAI 的利益冲突政策的访问权限对于揭示董事会控制 Sam 利用 OpenAI推进自己的经济利益的能力至关重要,这些利益似乎迄今为止都没有受到制约。例如,在 2019 年,当 Sam 担任 CEO 时,OpenAI 签署了一份意向书,从 Sam 大量投资的一家初创公司购买价值 5100 万美元的芯片。

虽然 OpenAI, Inc. 曾经是安全、负责任地开发 AGI 的先驱,基于与公众的开放沟通,但现在它已经关闭了大门,将最大的投资者引入其营利子公司的董事会,该董事会的唯一信托责任是对人类,并且继续在保密的情况下朝着利润为中心的未来前进,可能对人类产生灾难性的影响。​​​​​​​ $微软(MSFT)$

来源:微博 不是郑小康

# 半导体关注

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论

  • 推荐
  • 最新
empty
暂无评论