新闻 > 科教 > 正文

马斯克正式起诉OpenAI及奥特曼 大量细节被曝

摘要:马斯克OpenAI的故事就像,捐款给一个声称其使命是保护亚马逊雨林的非盈利组织,但然后非盈利组织创建了一个盈利的亚马逊伐木公司,使用捐款的成果清除雨林。

2024年3月1日——一场法律风暴正在硅谷酝酿,马斯克将 OpenAI CEO&联合创始人 Sam Altman告上法庭。马斯克在一份详细的诉讼文件中指控 Altman和其他被告违反了 OpenAI的创立协议,该协议旨在开发对全人类有益的非营利性 AI技术。

根据这份文件,马斯克和其他原告指控 OpenAI的管理层在2023年背离了其非营利的使命,转而与微软建立了独家合作关系,并将先进的 AI技术 GPT-4的秘密化,以服务于微软的商业利益。这一转变被描述为对 OpenAI非营利性质的公然背叛,违背了其创立的初衷。

马斯克在诉讼中声称,他与 Altman和 Greg Brockman共同创立 OpenAI时,是基于对 AI技术潜在风险的共同担忧,以及对确保 AI技术发展能够惠及全人类的承诺。然而,随着 OpenAI在AI领域的领先地位日益巩固,尤其是在开发出被认为可能是早期 AGI的 GPT-4模型后,公司的方向发生了根本性转变。

诉讼文件详细描述了 OpenAI的成立过程,包括马斯克在公司早期的资金投入、研究方向的建议,以及招募顶尖科学家和工程师的努力。这些努力被认为是 OpenAI能够迅速崛起的关键因素。然而,现在马斯克认为,他的这些贡献被用于了与他的初衷相悖的目的。

以下为这份诉讼文件中的主要内容:

马斯克对 AGI的担忧

在2012年,Elon Musk遇到了 DeepMind的联合创始人 Demis Hassabis,一家以盈利为目的 AI公司。大约在这个时候,Musk和 Hassabis在 SpaceX位于加利福尼亚州霍索恩的工厂会面,并讨论了面临社会的最大威胁。在这次对话中,Hassabis强调了 AI进步对社会可能带来的潜在危险。

与 Hassabis的这次交谈之后,Musk对 AI变得超智能、超越人类智能并威胁人类的潜力越来越感到担忧。事实上,Musk并不是唯一一个对 DeepMind进行的 AI研究和 AI的危险感到害怕的人。据报道,在与 Hassabis及 DeepMind的投资者会面后,一位投资者评论说,他对人类所能做的最好的事情就是当场射杀 Hassabis。

Musk开始与他的圈子内的人,如当时的 Google母公司 Alphabet, Inc.的 CEO Larry Page讨论 AI和 DeepMind。Musk经常在与 Page的对话中提起 AI的危险,但令 Musk震惊的是,Page对此并不担心。例如,在2013年,Musk与 Page激烈交流了 AI的危险。他警告说,除非采取安全措施,“ AI系统可能会取代人类,使我们的物种变得无关紧要甚至灭绝。”Page回应说,这只是“进化的下一个阶段”,并声称 Musk是一种“物种主义者”——即偏爱人类物种而不是智能机器。Musk回应说:“是的,我支持人类。”

到2013年末,Musk非常担心 Google计划收购 DeepMind。当时,DeepMind是行业中最先进的 AI公司之一。因此,Musk深切关注 DeepMind的 AI技术将掌握在如此轻率看待其力量并可能在封闭的门后隐藏其设计和能力的人手中。

为了防止这一强大技术落入 Google手中,Musk和 PayPal的联合创始人 Luke Nosek试图筹集资金购买 DeepMind。这一努力最终导致了一次长达一小时的通话,Musk和 Nosek做出了最后努力,试图说服 Hassabis不将 DeepMind卖给 Google。Musk告诉 Hassabis:“AI的未来不应该被 Larry[Page]控制。”

Musk和 Nosek的努力未能成功。2014年1月有报道称 DeepMind将被 Google收购。然而,这并没有阻止 Musk继续确保 AI的安全开发和实践。

Google收购 DeepMind后,Musk开始“主持自己的一系列晚餐讨论,探讨对抗 Google和促进 AI安全的方法。”Musk还联系了美国总统 Barack Obama讨论 AI和 AI安全问题。2015年,Musk和 Obama会面,向其解释 AI的危险并主张监管。Musk认为 Obama理解 AI的危险,但监管从未实现。

尽管遇到这些挫折,Musk继续倡导安全的 AI实践。2015年,Musk似乎找到了一个理解他对 AI的担忧和他希望将第一个 AGI保持在像 Google这样的私人公司之外的人:被告 Sam Altman。

当时,Altman是硅谷创业加速器 Y Combinator的总裁。在此之前,Altman参与了各种创业企业。

Altman似乎分享了 Musk对 AI的担忧。在2014年回溯的公开博客帖子中,Altman声称如果制造出 AGI,“将是技术上有史以来最大的发展。”Altman指出,许多公司正在朝着实现 AGI的方向迈进,但承认“好的公司对此非常保密。”

2015年2月25日,Altman还表达了他对“超人类机器智能”发展的担忧,他认为这“可能是对人类持续存在的最大威胁”,并强调“作为一个被编程为生存和繁衍的人类,我觉得我们应该对抗它。”此外,Altman批评那些认为“超人类机器智能”危险但又将其视为“永远不会发生或肯定非常遥远”的人,他指责他们“思考松懈、危险。”

事实上,2015年初,Altman赞扬政府监管作为确保安全创造 AI的手段,并建议“一群非常聪明的人,拥有大量资源”的团体可能涉及“以某种方式的美国公司”,将是最有可能首先实现“超人类机器智能”的团体。

当月晚些时候,Altman联系 Musk,询问他是否有兴趣起草一封致美国政府的公开信,讨论 AI问题。两人开始准备信件,并接触技术和 AI领域的有影响力的人士签名。很快,整个行业的人都听说了这封信的传闻。

例如,2015年4月,Hassabis联系 Musk,表示他从多个来源听说 Musk正在起草一封致总统的信,呼吁监管 AI。Musk向 Hassabis辩护 AI监管的想法,表示:“如果做得好,这可能会在长期内加速 AI的发展。如果没有监管监督提供的公众安心,很可能会出现 AI造成巨大伤害之后,AI研究被禁止的情况,因为它对公共安全构成危险。”

在 Hassabis关于公开信联系 Musk五天后,Hassabis宣布了 Google DeepMind AI伦理委员会的首次会议,这是 Google和 DeepMind在两年前 Google收购 DeepMind时承诺成立的。Musk被邀请成为委员会成员,并提议首次会议在加利福尼亚州霍索恩的 SpaceX举行。Musk在第一次会议后明确感到,这个委员会不是一个认真的努力,而是试图减缓 AI监管的幌子。

公开信后来于2015年10月28日发布,由超过一万一千人签名,包括 Musk、Stephen Hawking和 Steve Wozniak。

OpenAI成立之初的协议

2015年5月25日,Sam Altman给 Elon Musk发送了一封电子邮件,表达了他对是否可能阻止人类开发 AI的深思。Altman认为答案几乎肯定是否定的。如果 AI的发展不可避免,那么最好让谷歌以外的某个组织首先实现这一目标。Altman有一个想法:让 Y Combinator启动一个 AI领域的“曼哈顿计划”(这个名称可能非常恰当)。他提议可以通过某种非盈利组织的形式,让技术属于全世界,同时如果项目成功,参与其中的人可以获得类似创业公司的报酬。显然,他们将遵守并积极支持所有监管。Musk回应说,这“很值得一谈”。

经过进一步的交流,2015年6月24日,Altman向 Musk发送了一份关于这个新“AI实验室”的详细提案。“其使命将是创造第一个通用 AI,并将其用于个人赋能——即,分布式的未来版本看起来是最安全的。更一般来说,安全应该是一个一流的要求。”“技术将由基金会拥有,并用于‘全世界的利益’。”他提议从一组7-10人开始,并从那里扩展。他还提出了一个治理结构。Musk回应说,“在所有方面都同意。”

此后不久,Altman开始招募其他人帮助开发这个项目。值得注意的是,Altman向 Gregory Brockman寻求帮助。2015年11月,Altman通过电子邮件将 Brockman与 Musk联系起来。关于该项目,Brockman告诉 Musk,“我希望我们作为一个中立团体进入这个领域,寻求广泛合作,并将对话转向关于人类取胜而不是任何特定团体或公司取胜。(我认为这是让我们自己成为一个领先研究机构的最佳方式。)”对于一个专注于人类而不是任何特定个人或团体的利益的中立 AI研究团队的可能性持乐观态度,Musk告诉 Brockman他将承诺资金。

Musk提出了新实验室的名称,反映了成立协议:“Open AI Institute”,或简称“OpenAI”。

以成立协议的原则为指导,Musk与 Altman和 Brockman联手正式启动并推进该项目。Musk在项目公开宣布之前就积极参与其中。例如,Musk在员工薪酬包方面向 Brockman提供建议,分享了他关于薪酬和保留人才的策略。

2015年12月8日,OpenAI, Inc.的成立证书在特拉华州州务卿处提交。该证书以书面形式记录了成立协议:“本公司是一家仅为慈善和/或教育目的而组织的非盈利公司,符合1986年修订的内部收入法典第501(c)(3)节或任何未来美国内部收入法的相应条款。本公司的具体目的是为与 AI相关的技术研发和分发提供资金。所产生的技术将惠及公众,公司将寻求在适用的情况下将技术开源以利公众。”

OpenAI, Inc.在2015年12月11日对外公布。在公告中,Musk和 Altman被命名为联合主席,Brockman被命名为首席技术官。公告强调,OpenAI旨在“惠及人类”,其研究“不受财务义务的约束”:“OpenAI是一家非盈利的 AI研究公司。我们的目标是以最有可能惠及整个人类的方式推进数字智能,不受生成财务回报需求的限制。由于我们的研究不受财务义务的约束,我们可以更好地专注于对人类的积极影响。”

马斯克对 OpenAI的早期贡献

Elon Musk在 OpenAI, Inc.成功启动中扮演了关键角色。在公开宣布的当天,Musk通过电子邮件写道,“我们最重要的考虑是招募最优秀的人才。”他承诺,帮助招聘工作将是他“全天候的绝对优先事项”。他承认,“我们在人手和资源上被你们所熟知的组织以荒谬的优势超越,但我们站在正义这一边,这意味着很多。我喜欢这样的赔率。”Musk利用他的人脉、地位和影响力助力招聘工作。OpenAI, Inc.是由 Elon Musk赞助的项目,Musk担任联合主席,这一事实对 OpenAI, Inc.的招聘工作起到了关键作用,尤其是面对 Google/DeepMind的反招聘工作。如果没有 Musk的参与、大量的支持努力和资源——他对成立协议的重视——OpenAI, Inc.很可能永远无法起步。

最重要的初期聘用之一是首席科学家的职位。Altman、Brockman和 Musk都希望 Google的研究科学家 Ilya Sutskever担任这一角色。Sutskever在是否离开 Google加入该项目上犹豫不决,但最终是在 OpenAI, Inc.公开宣布的当天,Musk的一通电话说服了 Sutskever承诺加入项目,成为 OpenAI, Inc.的首席科学家。

接下来的几个月里,Musk积极为 OpenAI, Inc.招聘。Google/DeepMind对 OpenAI, Inc.的招聘人员提出了越来越丰厚的反击报价,试图扼杀这个新兴企业。在2月底,Musk给 Brockman和 Altman发送了电子邮件,重申“我们需要做必要的事情来获得顶尖人才。让我们提高报价。如果在某个时候,我们需要重新考虑现有人员的薪酬,那也没关系。我们要么获得世界上最好的人才,要么就会被 Deepmind打败。不惜一切代价吸引顶尖人才对我来说都是可以的。Deepmind给我带来了极大的精神压力。如果他们赢了,对于他们想要统治世界的哲学来说,这将是非常糟糕的消息。鉴于那里的人才水平,他们显然在取得重大进展。”

Musk不仅仅是利用他的人脉和影响力代表 OpenAI, Inc.招聘,当他告诉 Brockman和 Altman提高报价并“做必要的事情来获得顶尖人才”时,他就是在资助那些更高的报价。仅在2016年,Musk就为 OpenAI, Inc.贡献了超过1500万美元,比任何其他捐赠者都多。他提供的资金使 OpenAI, Inc.能够组建一个顶尖人才团队。同样,在2017年,Musk又向 OpenAI, Inc.贡献了近2000万美元,再次超过任何其他捐赠者。总的来说,从2016年到2020年9月,Musk为 OpenAI, Inc.贡献了超过4400万美元。

此外,通过 Musk Industries LLC,Musk为 OpenAI, Inc.的初始办公空间在旧金山的 Pioneer Building承租,并支付每月租金费用。Musk定期访问 OpenAI, Inc.,并出席重要的公司里程碑活动,如2016年第一台 DGX-1 AI超级计算机捐赠给 OpenAI, Inc.时。Musk会收到 OpenAI, Inc.进展的更新,并提供他的反馈和建议。

Altman和 Brockman多次重申成立协议

在2017年,Greg Brockman和其他人提议将 OpenAI, Inc.从一个非盈利组织转变为一个盈利性公司。经过几周的沟通后,Elon Musk告诉 Brockman、Ilya Sutskever和 Sam Altman,“要么自己去做点什么,要么继续将 OpenAI作为一个非盈利组织。在你们做出留下的坚定承诺之前,我将不再为 OpenAI提供资金,否则我就是一个傻瓜,基本上是在为一家初创公司提供免费资金。讨论结束。”

作为回应,Altman告诉 Musk他“仍然对非盈利结构充满热情!”最终,Brockman和 Sutskever向 Musk表明,他们也决心继续保持非盈利结构,并将在接下来的一年致力于为非盈利组织筹集资金。

2018年2月21日,Musk辞去了 OpenAI, Inc.联合主席的职务。尽管如此,Musk依然根据成立协议,继续向 OpenAI, Inc.提供资助。例如,在2018年,Musk向 OpenAI, Inc.捐赠了大约350万美元。他还继续从 Brockman、Sutskever和 Altman那里接收关于 OpenAI, Inc.的更新。

2018年4月,Altman向 Musk发送了一份 OpenAI宪章草案,并征求他的反馈。草案宣称 OpenAI的使命是确保 AGI“惠及全人类”。它声明,“我们承诺使用我们对 AGI部署的任何影响力,确保它用于全人类的利益,并避免启用可能伤害人类或不当集中权力的 AI或 AGI的使用。我们的首要受托责任是对人类。我们预计需要动员大量资源来实现我们的使命,但将始终努力最小化可能妥协广泛利益的利益冲突。”

2019年3月11日,OpenAI, Inc.宣布将创建一个盈利子公司:OpenAI, L.P.。潜在投资者在摘要条款表的顶部被告知一个“重要警告”,即盈利实体“存在是为了推进 OpenAI Inc.(非盈利组织)确保安全的 AGI被开发并惠及全人类的使命。普通合伙人对这一使命和 OpenAI Inc.宪章中推进的原则的义务优先于任何盈利义务。”因此,明确建议投资者“将对 OpenAI LP的任何投资视为捐赠。”

宣布后,Musk联系 Altman,要求他“明确我对 OpenAI盈利部门没有任何财务利益。”然而,Musk继续支持 OpenAI, Inc.这个非盈利组织,在2019年再次捐赠了348万美元。

2020年9月22日,OpenAI宣布它已将其某些预 AGI技术独家授权给 Microsoft。与成立协议一致,OpenAI的网站声明 AGI,“一个在大多数经济价值工作中超越人类表现的高度自治系统”“被排除在与 Microsoft的知识产权许可和其他商业条款之外,这些仅适用于预 AGI技术。”然而,OpenAI的董事会“决定我们何时达到 AGI。”

OpenAI的发展,AI到 AGI

OpenAI在初期工作上大量借鉴了 DeepMind的做法。不同于下棋,OpenAI在 Dota2这个策略性视频游戏上进行了竞争,该游戏比国际象棋有着更多的活动部分。OpenAI的团队迅速构建了一个新模型,击败了世界冠军队伍,展示了“自我对弈的强化学习能够在困难任务上达到超人的表现”。

与此同时,在 Google,一个名为 Transformer的算法解决了深度学习在理解长文本序列中遇到的许多问题。这个算法是“大型语言模型”的一个例子,它通过在源语言中的单词之间形成连接,并将这些连接映射到目标语言来翻译文本。

OpenAI的研究人员继续这项研究,并很快产生了另一个惊人的结果:通过使用 Google的 Transformer架构的前半部分,一个深度神经网络可以在大量文本语料上进行预训练,用于生成新文本。2018年1月,OpenAI发布了这个生成预训练 Transformer(GPT)的源代码和训练模型,以及一篇详细描述模型及其能力的论文。

2019年,OpenAI发布了第二代模型,GPT-2。这次发布同样附带了一篇详细论文,指出与之前的模型不同,这个模型无需针对特定任务进行训练,"当一个大型语言模型在足够大且多样的数据集上进行训练时,它能够在许多领域和数据集上表现良好"。这些模型证明了它们与以往的 AI系统非常不同。与其训练系统执行特定任务,不如简单地“请求”它们以自然语言执行新任务。

正如成立协议所预期的那样,OpenAI公开发布了 GPT-2的完整版本。值得注意的是,尽管“人类发现 GPT-2的输出令人信服”,“GPT-2可以被微调用于滥用”,且“检测(由 GPT生成的文本)具有挑战性”,OpenAI仍然决定发布。当时,OpenAI声明,希望这样做“将对未来强大模型的开发者有用”。这次发布伴随着一篇由 OpenAI科学家以及独立的社会和技术科学家共同撰写的详细论文,解释了公开发布模型而不是保持封闭所带来的许多好处。

他们的出版物证明对未来、强大模型的开发者确实有用。完整的社区出现了,以增强和扩展 OpenAI发布的模型。这些社区扩展到了开源、草根努力和商业实体。

2020年,OpenAI宣布了其模型的第三版,GPT-3。它使用了“1750亿参数,是之前所有非稀疏语言模型的10倍”。OpenAI再次通过发布研究论文宣布了这一模型的开发,论文描述了其完整的实现,供其他人构建。

2022年,Google的研究人员采用这些结果,并展示了一个名为连锁思考提示的小改动,能使“大型语言模型执行复杂推理”。东京大学和 Google的研究人员迅速扩展了 Google的结果,并展示了 OpenAI的 GPT-3能够以逐步的方式推理出一个全新的问题,就像人类一样,“只需在每个答案前添加‘让我们一步一步地思考’”。

AI的路径变得可见。并且,达到这一点的时间线正在显著压缩。

2023年3月14日,OpenAI发布了其模型的新一代,GPT-4。这一代不仅能进行推理,而且在推理方面比一般人类做得更好。GPT-4在统一律师考试中得分位于第90百分位,在 GRE口语评估中得分位于第99百分位,甚至在高级侍酒师考试中得分为77%。根据 OpenAI自己的客观衡量标准,GPT-4已经能够在广泛的经济有价值的任务上展现出优于人类的智能。

这一发展没有被研究社区忽视。在一篇题为“ AGI的火花:GPT-4的早期实验”的详细分析中,Microsoft的研究人员指出,“GPT-4能够解决跨数学、编程、视觉、医学、法律、心理学等多个领域的新颖且困难的任务,而无需任何特殊提示。而且,在所有这些任务中,GPT-4的表现与人类水平惊人地接近,通常远远超过之前的模型,如基于[GPT-3.5]的 ChatGPT。”

他们将 GPT-4的表现与基于 GPT-3的系统的表现进行了比较,发现“与 GPT-4的输出相比,没有任何可比性”。在数学问题上,他们展示了“GPT-4给出的解决方案是正确的,论证是合理的,而基于 GPT-3的 ChatGPT产生了错误的解决方案,如果是人类的话,这将反映出对函数反转概念的理解缺失”。在另一个例子中,他们展示了“GPT-4给出了正确的解决方案,而 ChatGPT开始无目的地重新排列术语,最终得出了一个错误的解决方案。”

Microsoft自己的科学家承认 GPT-4“达到了一种通用智能的形式”,并且“鉴于 GPT-4的能力的广度和深度,我们相信它可以合理地被视为 AGI系统的早期(尽管仍不完整)版本”。

违反OpenAI成立协议

达到 AGI的阈值后,根据成立协议,他们本应为了人类的利益而非任何盈利公司或个人利益开发 AGI,被告却从其使命中根本性偏离,违反了成立协议。GPT-4是一个完全封闭的模型。GPT-4的内部设计仍然是秘密,没有任何代码被发布。OpenAI没有发布描述其内部设计的任何方面的论文;它只是发布了吹嘘其性能的新闻稿。GPT-4的内部细节只有 OpenAI和据信是 Microsoft知道。因此,GPT-4与“开放的 AI”完全相反。它因商业专有原因而被封闭:Microsoft通过向公众销售 GPT-4而获利颇丰,如果 OpenAI如其所需那样使技术免费向公众开放,则不可能实现。与成立协议相反,被告选择使用 GPT-4不是为了人类的利益,而是作为专有技术来为世界上最大的公司最大化利润。此外,OpenAI的整个开发现在被保密,公众只能通过谣言和零散的通信片段来了解下一步可能发布的内容。

媒体报道称,OpenAI正在开发一个名为 Q*的秘密算法。尽管 Q*的具体内容尚不清楚,但据媒体报道,几名 OpenAI员工写了一封信,警告 Q*的潜在力量。看来 Q*现在或将来可能是 OpenAI开发的更清晰、更显著的 AGI的一部分。作为 AGI,它将明确不在 OpenAI与 Microsoft的许可范围内,并且必须为了广泛的公众利益而提供。

对于与 Microsoft的许可协议,OpenAI, Inc.的董事会决定 OpenAI是否已达到 AGI,在下面更详细描述的一系列令人震惊的事件中,OpenAI, Inc.的大多数董事会成员于2023年11月22日被迫辞职,他们的替代者据信是由 Altman和 Microsoft亲自挑选的。

2023年11月17日,OpenAI, Inc.的董事会解雇了 Altman。OpenAI在一篇博客文章中宣布,Altman被解雇,“他的离职是在董事会进行了深思熟虑的审查过程之后,得出结论他在与董事会的沟通中并不总是坦率,妨碍了其行使职责的能力。董事会不再对他继续领导 OpenAI持有信心。”

Brockman也被董事会移除,但被告知他将保留在 OpenAI的角色。

当时,董事会由 Helen Toner、Adam D’Angelo、Tasha McCauley、Sutskever博士、Brockman和 Altman组成。Toner女士除了在董事会任职外,还是 AI治理中心(GovAI)的研究员和顾问,以及乔治城大学安全与新兴技术中心的战略总监。McCauley女士是兰德公司的高级管理科学家,该公司是一家专门从事公共政策决策的非盈利机构。她还是 GovAI的顾问。D’Angelo——在 Altman返回后唯一留下的董事会成员——是一位技术 CEO和企业家。

选择在 OpenAI, Inc.的董事会中包括多位具有深厚 AI政策经验的学者和公共政策专家,他们大多数人在公司中没有财务利益,这是有意为之。这种财务上无利害关系的董事会成员结构,他们有着强烈的公共服务记录,确保了董事会会将非盈利的主要受益者——人类——置于财务成功之前。这种保障措施是为了进一步实现 OpenAI, Inc.的非盈利使命和成立协议:安全地创造能惠及人类的 AGI,而不是盈利公司的金钱利益。

据信,Altman被解雇部分是因为 OpenAI在实现 AGI方面取得了突破。事实上,新闻报道表明,OpenAI董事会成员和高管之间在安全问题和 OpenAI下一代 Q*可能构成的潜在威胁上存在分歧。

Altman被解雇的消息迅速传开。在董事会宣布 Altman被解雇后,Brockman宣布他将与 Altman一起离开 OpenAI。

当微软 CEO Satya Nadella得知 Altman被解雇时,据报道他非常愤怒。作为 OpenAI盈利部门的49%股东,Nadella认为在解雇 Altman之前应该咨询微软。然而,当时,除了 Altman,OpenAI, Inc.的董事会与微软没有任何联系,也没有对盈利部门投资者的受托责任。据信,Altman是微软和 OpenAI, Inc.之间的主要联络人。

Nadella邀请 Altman和 Brockman领导一个新的微软 AI研究实验室,不受 OpenAI, Inc.人道主义使命的限制。Nadella明确表示,离开 OpenAI的员工将以相同的薪水欢迎加入微软的新实验室。

微软确信,通过其在 OpenAI盈利部门的大量所有权,如果公司停止存在,它可以完全隔离 OpenAI, Inc.的研究。事实上,在 Altman被解雇后不久的一次采访中,Nadella说:“我们对自己的能力非常有信心。我们拥有所有的知识产权和所有的能力。如果 OpenAI明天消失了,我真的不希望我们的任何客户感到担心,因为我们拥有继续创新的所有权利。不仅仅是为了提供产品,我们还可以继续我们在合作中所做的事情。我们有人才,我们有计算能力,我们有数据,我们拥有一切。”

尽管微软就其在没有 OpenAI的情况下继续运作的能力发表了声明,微软从未放弃确保 Altman重新成为 OpenAI, Inc.的 CEO的计划。在 Altman被解雇的几天后,OpenAI, Inc.的董事会面临来自律师和主要股东(包括微软)的压力,要求恢复 Altman的职位。

Toner女士在努力恢复 Altman的过程中受到了特别的针对。在这些努力中,一名代表 OpenAI的律师告诉 Toner女士,如果因为 Altman被解雇而导致 OpenAI失败,她和董事会可能面临违反对投资者受托责任的指控。

然而,OpenAI, Inc.的董事会从未对投资者承担受托责任。实际上,所有投资盈利部门的投资者都被告知,公司对其使命的责任优先于对其投资者的责任,OpenAI, Inc.的网站明确指出它只对人类承担受托责任。

Toner女士,她将律师的行为描述为一种恐吓策略,认为 Altman继续被移除实际上将通过提升人类的安全而非利润来推进公司的使命。然而,这一切都没有阻止股东和 Altman推动他的复职。

此外,微软对 OpenAI, Inc.及其董事会拥有相当大的强制力。在 Altman被解雇的期间,Nadella谈到微软与 OpenAI的关系时说:“我们就在那里。我们在他们下面,在他们上面,围绕着他们。我们进行内核优化,我们构建工具,我们构建基础设施。所以这就是为什么我认为很多工业分析师都在说,‘哦哇,这真的是微软和 OpenAI之间的联合项目。’实际上,正如我所说,我们在所有这些方面都非常自给自足。”

此外,在解雇发生时,微软只支付了它对 OpenAI承诺的100亿美元投资中的一小部分,给了微软对“独立”非盈利董事会严重的影响力。此外,如果微软撤回其云计算系统——OpenAI依赖的系统,该公司将无法运作。

据信,在 Altman先生返回后,他亲自挑选了一个新的董事会,这个董事会缺乏与之前董事会设计时类似的技术专长或在 AI治理方面的任何实质性背景。D'Angelo先生,一位技术 CEO和企业家,是 Altman先生返回后唯一留下的前董事会成员。新董事会包括在以利润为中心的企业或政治方面比在 AI伦理和治理方面有更多经验的成员。他们也被报道是“Altman的忠实粉丝”。新董事会成员中有 Bret Taylor和 Larry Summers。Taylor先生在硅谷并不陌生,并且深度参与了湾区各种以盈利为驱动的企业。2024年2月14日,Taylor先生和前谷歌高管 Clay Bavor启动了一家专注于为企业构建 AI聊天机器人的初创公司。Summers博士是一位经济学家,据信在2023年11月之前没有在基于 AI的企业中工作过的经验。微软还在董事会上获得了一个观察员席位,从中可以密切关注其表面上的非盈利摇钱树。

随着 Altman先生的重新任命和董事会的重组,OpenAI的公司结构——原本被设计为非盈利部门、盈利部门、董事会和 CEO之间的平衡系统,以确保非盈利使命得以执行——一夜之间崩溃。OpenAI, Inc.曾经精心打造的非盈利结构被纯粹以盈利为驱动的 CEO和在 AGI及 AI公共政策方面技术专长较差的董事会所取代。董事会现在为微软保留了一个观察员席位。通过这种重组,OpenAI, Inc.放弃了其为了广泛人类利益开发 AGI的非盈利使命,从而使其远离了一个巨大的盈利公司,其中巨大的权力将不当集中。

OpenAI, Inc.董事会在 AI技术专长、中立性和对 OpenAI, Inc.非盈利使命的承诺对 OpenAI, Inc.的使命尤为重要,因为正是董事会决定 OpenAI是否已达到微软许可协议目的 AGI。这意味着董事会的任务是确定 OpenAI最强大和最先进的技术是否实际上被排除在微软的独家许可范围之外。考虑到微软对于将大门关闭以阻止公众进入的巨大财务利益,OpenAI, Inc.的新董事会,因其被俘获、冲突和顺从,将有充分的理由永远不做出 OpenAI已达到 AGI的发现。相反,OpenAI的 AGI成就,就像《安妮》中的“明天”,总是遥遥无期,确保微软将获得 OpenAI最新技术的许可,而公众则被排除在外,这与成立协议完全相反。

OpenAI的行为可能对硅谷产生重大影响,如果被允许存在,可能代表技术初创公司的范式转变。重要的是要反思这里发生了什么:一个非盈利初创公司收集了数千万美元的捐款,明确目的是为了公共利益开发 AGI技术,而就在实现该公司创建目的里程碑之前不久,该公司变成了世界上最大的公司的闭环、盈利合作伙伴,从而使被告人个人获利。如果这种商业模式有效,它将彻底重新定义加利福尼亚州及其他地方的风险投资实践方式。与其从一开始就作为一个盈利实体,聪明的投资者会建立非盈利组织,使用税前捐款来资助研究和开发,然后一旦他们的技术被开发出来并证明有效,就会将产生的知识产权资产转移到一个新的盈利企业中,以此来丰富自己和他们的盈利最大化的企业伙伴。这不应该是加利福尼亚州或这个国家的法律如何运作的方式,这也不应该是第一个持相反意见的法院。

为了进一步理解这为什么重要,如果 OpenAI的新商业模式有效,对于每一美元投资者通过向非盈利组织的“投资”获得的,投资者将从州和联邦政府那里以减少的所得税形式获得大约50美分回报,因此他们每1美元投资的净成本只有50美分。然而,通过 OpenAI的新商业模式,他们获得与那些以传统方式投资于盈利公司并因此没有立即获得税收减免的人相同的“盈利”上升空间,由政府和最终由公众资助。从投资的角度来看,与采用新 OpenAI商业模式的实体竞争就像打篮球比赛,对方的篮筐得分是你的两倍。如果这个法院认可 OpenAI在这里的行为,任何希望在硅谷保持竞争力的初创公司基本上都将被要求遵循这种 OpenAI战略,这将成为初创公司的标准操作程序,对合法的非盈利组织、政府的税收收入和最终加利福尼亚州及其他地区的人民造成损害。值得注意的是,OpenAI的盈利部门最近的估值接近800亿美元。

11月至今:Altman的 OpenAI

公众仍然对董事会的“审议性审查过程”揭示了什么导致 Altman最初被解雇一事一无所知。然而,对于 Musk先生和广大公众来说,一件事是清楚的:OpenAI放弃了其“不可撤销”的非盈利使命,转而追求利润。许多领袖和知识分子已经公开评论了 OpenAI变成“封闭的、盈利的 AI”这一讽刺和悲剧。

例如,2023年11月29日,MIT的经济学家在《洛杉矶时报》上发表了一篇意见文章,表达了对 OpenAI新的盈利驱动指令的担忧。用他们的话说,“颠覆和不受控制的增长已成为科技行业的宗教,而 Altman一直是其最忠诚的高级牧师之一。”经济学家强调,新董事会更有可能允许 Altman尽可能快地扩大 OpenAI的规模,不管社会成本有多严重。

公民权益组织 Public Citizen的主席今年早些时候给加利福尼亚州检察长 Rob Bonta写了一封公开信,提出了关于 OpenAI的盈利子公司是否对非盈利机构施加了不适当的控制,或者非盈利机构的目的在 Altman和微软的领导下是否转向了盈利的担忧。信中建议,如果非盈利机构放弃了其原始使命,它应该被解散,其资产应转给另一个慈善企业。

WIRED在2024年1月的一项调查发现,OpenAI近期也关闭了公众访问以前可用的“关键文件”。根据 OpenAI最初的透明度承诺,OpenAI的 IRS文件自成立以来就表明,任何公众成员都可以查看其治理文件、财务报表和利益冲突规则的副本。然而,当 WIRED请求这些文件时,OpenAI表示它已更改了政策。因此,尽管 OpenAI长期以来一直宣扬其对透明度的承诺,公众却无法获得揭示2023年11月事件的信息。

访问 OpenAI的文件可以让公众了解它是否已改变其治理结构以取悦微软和其他股东。至少,为了适应微软在董事会上的席位,必须做出改变,现在 Altman正在与中东投资者进行讨论,以筹集高达7万亿美元的资金,旨在开发一个全球 AI芯片制造厂网络。如果微软的100亿美元就足以让它获得董事会席位,那么可以想象这些新的潜在投资可能会给投资者带来多大的影响力。当一个潜在的捐赠者是阿拉伯联合酋长国的国家安全顾问,而美国官员因为阿拉伯联合酋长国与中国的联系而感到担忧时,这尤其令人不安。此外,Altman被引述讨论了让阿拉伯联合酋长国成为一个“监管沙盒”,在那里测试 AI技术的可能性。

此外,访问 OpenAI的利益冲突政策对于揭示董事会控制 Altman使用 OpenAI促进其个人经济利益的能力至关重要,到目前为止,这似乎还未受到制约。例如,在2019年 Altman担任 CEO时,OpenAI签署了一份意向书,购买价值5100万美元的芯片,这些芯片来自 Altman大量投资的一家初创公司。

虽然 OpenAI, Inc.曾是基于公开与公众沟通的安全、负责任的 AGI开发的先驱,但现在它已经关闭了大门,将其盈利子公司的最大投资者带到了唯一对人类负有受托责任的董事会,并继续秘密地朝着以利润为中心的未来前进,可能对人类产生灾难性的后果。

Musk与 Altman以及 Brockman共同创立并资助了 OpenAI, Inc.,交换的是依靠成立协议以确保 AGI将惠及人类,而不是盈利公司。随着2023年的事件发展,他对 OpenAI, Inc.的贡献被扭曲,以造福被告和世界上最大的公司。这是对成立协议的明显背叛,将该协议颠倒并扭曲了 OpenAI, Inc.的使命。想象一下捐款给一个声称其使命是保护亚马逊雨林的非盈利组织,但然后非盈利组织创建了一个盈利的亚马逊伐木公司,使用捐款的成果清除雨林。这就是 OpenAI, Inc.的故事。

责任编辑: 李华  来源:华尔街见闻 转载请注明作者、出处並保持完整。

本文网址:https://www.aboluowang.com/2024/0302/2024934.html