在奥特曼被扫地出门前两天,他还以OpenAI公司CEO的身份,出席了亚太经合组织第三十次领导人非正式会议,并以嘉宾的身份做了发言。
文|陆知春
刚刚发布GPT-4 Turbo的全球人工智能巨头OpenAI,一夜之间变天了。
当地时间11月18日,OpenAI官网突然登出了一条创始人兼CEO山姆·奥特曼(Sam Altman)辞职离开OpenAI,公司首席技术官米拉·穆拉蒂(Mira Murati)担任临时CEO的声明。公司董事会还表示,公司联合创始人格雷格·布罗克曼 (Greg Brockman) 将卸任董事长,但会继续担任公司职务。但布罗克曼随后在社交平台上发文确认将离开公司。
“ChatGPT之父”奥特曼突然离职,在科技行业瞬间引发轩然大波。在声明中,OpenAI表示奥特曼在与董事会的沟通中并不坦诚,阻碍了他履行职责的能力,董事会也不再相信他继续领导OpenAI的能力。
值得注意的是,在这份声明发布前两天,Altman在亚太经合组织第三十次领导人非正式会议中,还以OpenAI CEO的身份出席了峰会并作为嘉宾参与了讨论。
同时,值得关注的是,有多家媒体报道OpenAI正在洽谈以860亿美元的估值出售现有员工股份,这一估值将使OpenAI成为仅次于字节跳动和SpaceX的超级独角兽。
目前,多家数智研究社在内的多家媒体火速跟进OpenAI领导层变动的消息,但至于Altman被离职的真正原因,我们也继续关注。
附OpenAI官方声明全文翻译:
首席技术官 Mira Murati 被任命为临时 CEO,继续领导 OpenAI;Sam Altman 离开公司。
寻找长期继任者的工作将持续进行。
OpenAI 公司的董事会今天宣布:Sam Altman将辞去 CEO 职务并离开董事会。公司的首席技术官 Mira Murati 将担任临时CEO,立即生效。
Mira 作为 OpenAI 领导团队的成员已有五年,她在 OpenAI 发展成为全球 AI 领导者的过程中发挥了关键作用。她具备独特的技能,对公司的价值观、运营和业务有深刻的理解,并已经领导公司的研究方向、产品和安全功能。鉴于她在公司各方面的长期任期和紧密参与,包括她在 AI 治理和政策方面的经验,董事会认为她非常适合担任这一职务,并在寻找未来的长期 CEO 的过程中预期实现无缝过渡。
Altman先生的离职是在董事会经过深思熟虑的审查过程后决定的,董事会认为他在与董事会的沟通中未能始终保持坦诚,从而妨碍了董事会履行职责的能力。董事会不再相信他有能力继续领导OpenAI。
董事会在一份声明中表示:「OpenAI 的设立旨在推进我们的使命:确保通用人工智能造福全人类。董事会仍然全力致力于实现这一使命。我们感谢 Sam 对 OpenAI 创立和发展的许多贡献。同时,我们认为在前进的过程中需要新的领导。作为公司研究、产品和安全功能的领导者,Mira 非常适合担任临时 CEO。我们对她在过渡期间领导 OpenAI 的能力充满信心。」
OpenAI 董事会由 OpenAI 首席科学家 Ilya Sutskever、独立董事 Quora CEO Adam D'Angelo、科技企业家 Tasha McCauley 和乔治城安全和新兴技术中心的 Helen Toner 组成。
作为这次过渡的一部分,Greg Brockman 将辞去董事会主席职务,但将继续在公司担任职务,向 CEO 汇报。
OpenAI 成立于 2015 年,是一家非营利组织,其核心使命是确保通用人工智能造福全人类。2019 年,OpenAI 进行了重组,以确保公司在追求这一使命的同时,保留非营利组织的使命、治理和监督。董事会的多数成员是独立的,独立董事不持有 OpenAI 的股权。尽管公司经历了快速增长,但推进 OpenAI 的使命和维护其章程原则仍然是董事会的基本治理责任。
「数智研究社」发现,在2023年9月,知名媒体WIRED曾发布一篇题为《What OpenAI Really Wants》(OpenAI真正想要的是什么)的文章。深刻揭露了“ChatGPT之父”奥特曼在OpenAI的所作所为,对于我们理解突然之间,奥特曼辞职离开CEO之位或许有一定帮助。
当这家年轻公司发布ChatGPT时,它在全球引起了轰动;但那只是个开始,最终目标:改变一切;是的,一切。
空气中弥漫着一种近似于“披头士迷”般的活力,明星和他的随行团队匆匆跳进一辆等待的梅赛德斯面包车。他们刚刚结束了一个活动,正前往另一个,然后是下一个,一个疯狂的人群正在等待着。当他们穿梭于伦敦的街头——从霍尔本到布卢姆斯伯里的短途行驶——就好像他们正在冲浪文明的一个前后时刻。这辆汽车内所体现出的具有历史性的力量已经吸引了全世界的注意。每个人都想要成为其中一部分,从排队等待的学生到首相。
在一辆豪华面包车内,一位打着领带的38岁企业家山姆·奥特曼正在狼吞虎咽地吃着沙拉,他是OpenAI的联合创始人;还有一名公关人员,一名安全专家。奥特曼穿着一套略显阴郁的蓝色西装,搭配一件没有领带的粉色衬衫,他正在伦敦。在这一个月内,他将前往6大洲的25个城市。当他狼吞虎咽地吃着绿色蔬菜时,他回顾了前一晚与法国总统马克龙的会面。马克龙表达了对人工智能超级的兴趣。当然,波兰总理、西班牙总理也是如此。
坐在奥特曼身旁,我几乎能听到《A Hard Day's Night》中那个引人注目、意义模糊的和弦响起——引领未来的声音。2022年11月,OpenAI发布的ChatGPT,触发了一场自互联网进入我们生活以来前所未见的科技旋风。突然间,图灵测试成了历史,搜索引擎成了濒临灭绝的物种,任何大学论文都无法被信任。没有任何工作是安全的,没有任何科学问题是不可改变的。
奥特曼没有再继续进行ChatGPT和进阶版GPT-4的研究,也没有进行神经网络的训练或编写界面。但作为CEO——一位像他的联合创始人马斯克年轻版的梦想家/实干家,一篇又一篇的新闻都以他的照片作为人类新挑战的视觉象征。奥特曼是当下的神谕,也是一位关于AI如何可能引领黄金时代、将人类置于无关紧要的地位、或者更糟情况的人。
奥特曼的面包车在五月带他去了四个地方。第一个是秘密的,是与“圆桌会议”(Round Table)的一次非正式会议,该团体由政府、学术界和行业人士组成。临时组织的会议在一家名为“Somers Town Coffee House”的酒吧的二楼进行。在一幅严肃的酿酒师查尔斯·威尔斯(1842年-1914年)的画像下,奥特曼回答了几乎每个听众都会问的同样问题。AI会杀死我们吗?能够进行监管吗?中国怎么办?他详细回答了每一个问题,同时偷偷看手机。
之后,他在伦敦的奢华酒店进行了一个与牛津公会的600名成员进行的壁炉边聊天。然后,前往地下会议室,在那里他回答了约100名企业家和工程师的更多技术问题。现在,他要去参加伦敦大学学院的中午后的台上演讲。他和他的团队被引导穿过一系列弯曲的走廊,就像电影《盗梦空间》中的Steadicam镜头。当奥特曼出现在舞台上时,坐满了兴奋的学者、极客和记者的礼堂爆发出掌声。奥特曼并不是一个天生喜欢宣传的人。在《纽约客》一篇关于他的长篇报道中,奥特曼说:“关于我的写得太多了。”
也许有一天,当机器人书写我们的历史时,他们会将奥特曼的世界巡回演出视为一个里程碑,标志着每个人都突然开始对奇点进行个人反思。又或者,也许在记录这一时刻的历史的人会将其视为一个时刻,一个悄然引人注目的CEO带着颠覆传统的技术,试图将一种非常独特的世界观注入全球意识流——从旧金山一个未标明的四层总部到整个世界。
对于奥特曼和他的公司来说,ChatGPT和GPT-4仅仅是实现一个简单而又革命性使命的垫脚石。这个使命是构建人工通用智能——一个迄今为止更多地基于科幻而非科学的概念,并且使之对人类安全。在OpenAI工作的人们对这个目标追求得如痴如醉。他们认为,人工智能的发展轨迹将超越生物学所能达到的任何高度。该公司的财务文件甚至规定了一种情况下的退出策略,即当人工智能摧毁了我们整个经济体系时。
称OpenAI为一个邪教是不公平的,但几位公司高层对于“如果有人不相信AGI真的会到来,而且它的到来将标志着人类历史上最伟大的时刻之一,是否能够在那里舒适地工作时”,大多数高管都认为不行。他们想知道,为什么一个不相信的人会想在这里工作?这个假设是,现在将近500人的公司规模中,有很多人是被OpenAI的魔咒吸引来的。
当然,现在的OpenAI已不是最初那个纯粹的非盈利研究机构。今天,OpenAI已经是一个拥有盈利目标的实体,估值近300亿美元。奥特曼和他的团队现在面临着在每一个产品周期内交付一场革命的压力,以满足投资者的商业需求,并在竞争激烈的市场中保持领先地位。而同时,奥特曼们还坚守着一种近乎救世使命的使命。当然,这个使命是帮助人类而非摧毁人类。
这种压力——更不用说全世界无情的关注——可能是一种具毁灭性的力量。披头士引发了巨大的文化变革浪潮,但他们只坚守了这场革命一段时间:在响起那个令人难忘的和弦六年后,他们甚至不再是一个乐队。OpenAI引发的动荡几乎肯定会更大。但OpenAI的管理层们发誓将坚守自己的道路。他们称只想构建足够聪明和足够安全的计算机来结束历史,将人类带入一个无法想象的丰盛时代。
在80年代末90年代初,奥特曼是一个热衷于科幻小说和星球大战的怪癖的孩子。早期科幻作家构建的世界经常让人类与超智能AI系统共存或竞争。计算机与甚至超越人类能力的概念让奥特曼兴奋不已,他从小就开始编程,当时他的手指还勉强能覆盖键盘。8岁时,父母给他买了一台Macintosh LC II。有一天晚上,他在玩电脑,突然想到一个念头:“总有一天,这台电脑会学会思考。”2003年,他本科进入斯坦福大学求学时,希望能够实现这一目标,并选修了人工智能课程。但他后来会说:“一切都不奏效。”该领域仍然陷入了被称为AI寒冬的创新低谷。奥特曼退学进入创业世界;他的公司Loopt是第一批进入Y Combinator孵化器的有抱负的组织之一,后者将成为世界上最著名的孵化器。
2014年2月,Y Combinator的创始导师保罗·格雷厄姆选择了当时28岁的奥特曼来接替他。奥特曼认为,Y Combinator是一个更大的创新平台。奥特曼接替格雷厄姆后曾公开表示,“我们不是关于创业,我们关注的是创新,因为我们认为这是如何使未来变得伟大的方法。”在奥特曼看来,利用那些独角兽公司的财富,不是为了填满合伙人的钱包,而是为了资助属于物种级别的变革。他建立了一个研究部门,希望资助解决全球最大问题的雄心勃勃的项目。但在他看来,AI是统治所有创新领域的一种领域:一个能够比人类更好的解决人类问题的超级智能。
正巧的是,奥特曼在新工作中任职时,AI寒冬正在变成温暖的春天。现在,通过深度学习和神经网络,计算机能够处理比如标记照片、翻译文本和优化复杂的广告网络这些丰富想象力的工作。这些进步使他相信,AGI首次真正可以实现。但是,他担心把这个创意交给大公司后,这些公司会太过专注于他们的产品,无法抓住尽快开发AGI的机会。即使它们创造了AGI,可能会在没有必要的预防措施情况下不加控制地释放到世界上。
当时,奥特曼曾考虑竞选加利福尼亚州州长。但他意识到,他完全有能力做一些更重要的事情——领导一家可以改变人类本身的公司。“AGI只会建立一次,而且没有那么多人能够很好地运营OpenAI。”
奥特曼开始与一些可能帮助他创建一种新型的AI公司的人交谈,这家非营利组织将引导该领域朝着负责任的AGI方向发展。其中一个志同道合的人是特斯拉CEO马斯克。几个月内,奥特曼从马斯克和里德·霍夫曼那里筹集到了资金。其他资助者包括彼得·蒂尔、杰西卡·利文斯顿、亚马逊Web Services和YC Research。奥特曼开始秘密地招募团队,他将搜索范围限制在信仰AGI的群体中,这个限制减少了她的很多选择。奥特曼说,“回顾2015年我们在招聘时,几乎可以认为AI是研究人员的职业杀手,如果你认真对待AGI,那我们就有机会一起共事。”
布洛克曼就是这样一个人,他是Stripe的CTO。在和奥特曼交流后,他同意担任OpenAI的CTO。另一个关键的联合创始人是安德烈·卡帕斯,他曾在Google Brain工作。但奥特曼最重要、最紧急的目标是一位名叫伊利亚·苏茨克沃尔(Ilya Sutskever)的工程师。
苏茨克沃尔家人从俄罗斯移民到以色列,然后再到加拿大。在多伦多大学,他曾是杰弗里·欣顿(Geoffrey Hinton)的杰出学生,后者因其在深度学习和神经网络领域的工作而被誉为现代人工智能的奠基人。欣顿,仍然与苏茨克沃尔保持密切联系,对他仍赞不绝口。在苏茨克沃尔在实验室工作的早期,欣顿给了他一个复杂的项目。苏茨克沃尔厌倦了编写执行所需计算的代码,他告诉欣顿,如果他为这个任务编写一个定制的编程语言,会更容易。欣顿有点生气,并试图警告他的学生不要陷入他认为会分散注意力一个月的项目中。然后苏茨克沃尔坦白:“我今早就做完了。”
苏茨克沃尔是一位人工智能的超级明星,他是一篇突破性论文的合著者,该论文展示了人工智能如何能够通过暴露于大量数据来学习识别图像。他最终也成为了Google Brain团队的关键科学家。
2015年中期,奥特曼通过邮件邀请苏茨克沃尔与马斯克、布洛克曼和其他人在帕洛阿尔托的桑德希尔路上的豪华罗斯伍德酒店共进晚餐。苏茨克沃尔后来才明白,他是荣誉嘉宾。“这是关于未来的人工智能和AGI的一种一般性谈话,”他说。更具体地说,他们讨论了“谷歌和DeepMind是否领先地无法赶上他们,还是是否仍然有可能像埃隆所说的那样,创建一个可以起到平衡作用的实验室。”虽然在晚餐上没有人明确试图招募苏茨克沃尔,但这次对话吸引住了他。
不久之后,苏茨克沃尔给奥特曼写了一封电子邮件,表示愿意领导这个项目,但这封邮件却被卡在了他的草稿文件夹中。奥特曼随后联系了他。很快,苏茨克沃尔便成为了OpenAI的灵魂和研究的推动力。
苏茨克沃尔与奥特曼和马斯克一起招募人才,最终在纳帕谷度假村举行了一次活动,许多潜在的OpenAI研究人员相互激发彼此。当然,也有一部分技术牛人如制作了《毁灭战士》、《雷神之锤》和无数其他游戏的传奇开发者约翰·卡马克,拒绝了奥特曼的邀请。
OpenAI于2015年12月正式启动。彼时,马斯克和奥特曼介绍这个项目时表示,希望OpenAI的存在,能够让人工智能在全世界更安全更容易访问。换句话说就是开源。更重要的是,OpenAI不打算申请专利,每个人都可以使用他们在技术上的突破他们的突破。
但问题也随之而来,“那不会赋予未来的邪恶博士(Dr. Evil)权力吗?”针对这一问题,奥特曼的答案是,人类通常是善良的,因为OpenAI将为绝大多数人提供强大的工具,不良行为者将被淘汰。当然,他也承认,如果邪恶博士使用这些工具构建无法对抗的东西,那么“人类将处于一个非常糟糕的境地。
奥特曼展现了一个宏伟的蓝图,但也表示“这在很长一段时间内都会看起来像是一个研究实验室。“同时,OpenAI还面临一些巨头们的竞争。如谷歌和其他公司已经研发并应用人工智能多年。
一年多后,在一次聚餐中,OpenAI的CTO布洛克也公开发言,“我们的目标,我们真正努力的事情,是拥有能够做到以前人类无法做到的系统。”但目前看来,这些系统就是一群研究人员发布论文。起步的OpenAI面临诸多艰难,布洛克曼承认“什么都不起作用”。奥特曼则称,“我们知道为什么要这样做,但我们不知道怎么做。”
但他们相信,支持他们乐观情绪的是人工神经网络在使用深度学习技术方面持续改进。“一般的想法是,不要反对深度学习,”苏茨克沃尔说。他说,追求AGI,“不是完全疯狂,只是有点疯狂。”
OpenAI真正开始步入正轨是从2016年聘请了一位尚未被广泛熟知的研究人员亚力克·拉德福德(Alec Radford)开始的,他在这一年离开了在寝室创办的波士顿小型人工智能公司,转而加入了OpenAI。在OpenAI,他扮演的角色更像是拉里·佩奇发明PageRank。
拉德福德最大的兴趣是让神经网络与人类进行清晰的对话互动,这与传统的编写式聊天机器人模型有所不同,后者在从最原始的ELIZA到流行的助手Siri和Alexa中都有所使用,但都表现得不太好。他的第一个实验涉及扫描20亿Reddit评论来训练语言模型。像OpenAI的许多早期实验一样,它失败了,但不要紧。在布洛克曼等人的支持下,这位23岁的研究员得到了继续前进、再次失败的许可。
他的下一个重大实验受到了OpenAI算力限制的影响,这一限制使他在一个较小的数据集上进行了实验,重点关注了一个领域——亚马逊产品评论。一位研究员已经收集了约1亿条这方面的评论。拉德福德训练了一个语言模型,仅仅是预测生成用户评论时的下一个字符。
苏茨克沃尔和其他人鼓励拉德福德将他的实验扩展到亚马逊评论之外,利用他的见解来训练神经网络以在广泛的主题上进行对话或回答问题。
然后,好运降临在OpenAI身上。2017年初,出现了一篇未经宣传的研究论文预印本,由八名谷歌研究员合著,官方标题是“注意力就是一切”,但它被称为“Transformer论文”。Transformer使神经网络更有效地理解和生成语言成为可能。它们通过并行分析一段文字并确定哪些元素值得“关注”来实现这一点。这极大地优化了生成连贯文本以响应提示的过程。最终,人们意识到相同的技术也可以生成图像,甚至视频。虽然Transformer论文后来被称为当前人工智能热潮的催化剂——可以将其视为使披头士乐队成为可能的猫王——但当时,苏茨克沃尔是少数几位了解这一突破有多强大的人之一。“真正的顿悟时刻是当苏茨克沃尔看到Transformer的时候,”布洛克曼说。“他说,‘这就是我们一直在等的。’这一直是我们的战略——在问题上努力推动,然后相信我们或领域内的某个人将设法找出缺失的要素。”
拉德福德开始尝试使用Transformer架构。“我在两周内取得了比过去两年还要多的进展,”他说。他开始明白,充分利用新模型的关键是增加规模——在极大的数据集上进行训练。这个想法被拉德福德的合作者Rewon Child称为“大型Transformer”。
这种方法需要OpenAI文化的改变,以及之前缺乏的重点。“为了充分利用Transformer,你需要将它扩展起来,”Quora公司CEO亚当·丹杰洛说,他是OpenAI董事会的成员。“你需要将其管理得更像一个工程组织。你不能让每个研究员都试图做自己的事情,训练自己的模型,然后做出可以发表论文的优雅东西。你必须做这种更繁琐、不那么优雅的工作。”他补充说,这是OpenAI能够做到的事情,也是其他人没有做的事情。
他们为他们创建的模型取名为“生成预训练变换器”的缩写——GPT-1。最终,这个模型被通用地称为“生成式人工智能”。为了构建它,他们利用了一组包含7000本未发表的书籍,其中许多属于浪漫、幻想和冒险等类型,并在Quora的问题和答案以及数千篇中小学和高中考试的文章中进行了改进。总的来说,该模型包括1.17亿个参数或变量。它在理解语言和生成答案方面超越了以前的一切。但最引人注目的是,处理如此大量的数据使得模型能够提供超出其培训范围的结果,为全新领域提供专业知识。这些未经计划的机器人能力被称为“零射击”。它们仍然让研究人员感到困惑,并解释了该领域许多人对这些所谓的大型语言模型感到不安的原因。
每个GPT迭代都表现得更好,部分原因是每个迭代都比前一个模型吸收了数量级更多的数据。在创建第一个迭代仅仅一年后,OpenAI就用惊人的15亿参数对GPT-2进行了训练。就像幼儿掌握语言一样,它的回答变得更好,更连贯,以至于OpenAI犹豫不决地是否将该程序释放到公开领域。拉德福德担心它可能被用来生成垃圾邮件。“我记得2008年读尼尔·斯蒂芬森(Neal Stephenson)的《冥典》时,在那本书中,互联网被垃圾邮件生成器充斥着,我当时认为那是非常不现实的,但随着我多年来在语言模型上的工作变得更好,我不适之感已经很不舒服地产生了。”
OpenAI团队开始认为,将其工作置于Dr. Evil易于访问的地方可能并不是一个好主意。“我们认为开源GPT-2可能会非常危险,”2018年加入该公司的首席技术官米拉·穆拉蒂说。“我们与不实信息专家进行了大量工作,并进行了一些演练,内部有很多关于发布多少内容的讨论。”最终,OpenAI暂时保留了完整版本,向公众提供了一个功能较弱的版本。当完整版本面世时,世界仍然正常运转,但没有保证更强大的模型会避免灾难。
对于奥特曼来说,这是一种令人难以置信的经历。“小时候大概10岁,我就花很多时间幻想AI最终会发生什么?首先我们将拥有机器人,它将执行所有的体力劳动。然后我们将拥有可以进行基本认知劳动的系统。在这之后很长一段时间,我们将拥有可以做复杂工作、证明数学定理等的系统。最后,我们将拥有可以创造新事物、创作艺术、写作并做这些属于人类的事物的人工智能。”
在全球还没关注到OpenAI这家公司时,奥特曼和马斯克的研究实验室已经开始了一场不断接近AGI高峰的攀登。但从现在看,OpenAI当时疯狂的想法突然不再那么疯狂了。
到2018年初,OpenAI开始针对性地关注大语言模型(LLMs),但马斯克并不满意。马斯克觉得进展太慢,或者可能他认为既然OpenAI已经有所进展,需要领导层来掌控全局、把握机会。当然,他也可能意识到OpenAI背后的安全性应该更受重视。综合来看,当时的马斯克,希望公司把一切都交给他。他提议获得公司的多数股权,将其加入到他多份全职工作(特斯拉、SpaceX)和监督义务(Neuralink和Boring Company)的投资组合中。
马斯克认为他有权拥有OpenAI。“没有我,它就不会存在,名字是我想出来的”马斯克公开坦言。但奥特曼和OpenAI的其他核心成员对成为Muskiverse的一部分没有兴趣。所以,很快马斯克离开了董事会。马斯克解释称他离开董事会是为了避免与特斯拉的人工智能努力发生冲突。他在那年初的一次全员大会上告别时预言OpenAI将会失败,并公开称团队中至少有一位成员是”混蛋“。
马斯克还顺带带走了资金。OpenAI没有收入,面临着一场生死存亡的危机。”埃隆正在削减他在OpenAI的投入,”奥特曼在向里德·霍夫曼的电话中称。“我们该怎么办?”很快,霍夫曼的资金到账。霍夫曼自愿维持OpenAI公司运转,支付开支和工资。
但这只是一个临时的解决方案,OpenAI必须在其他地方找更多的资金。硅谷喜欢向从事时髦技术、有才华的人和团队投资大笔资金。但如果他们是一家非营利组织,那么这些聪明钱就不太愿意来了。OpenAI首次筹集的第一个亿级别美元资金是通过巨大努力得来的。但为了培训和测试新一代GPT,然后获得部署它们所需算力资源,OpenAI需要另一个亿级美元资金的注入,而且时间方面更紧迫。更重要的是,这还只是个开始。
为了获得资金支持,OpenAI在2019年3月提出了一个奇特的办法。一方面,OpenAI将继续保持非营利性质,全力以赴履行其使命。但它还将创建一个营利性实体。
这个安排的实际结构过于复杂,但基本上整个公司现在都参与了一个“限制盈利”的业务。如果达到上限——具体数字不公开,但根据它自己的章程,如果超过一定数额的上限的话,超过部分都将归还给非营利性研究实验室。这种新颖的方案可以称得上是一种新型公司组织方式。根据首席运营官布拉德·莱特卡普的说法,公司领导层的看法是董事会,仍然是非营利性控股实体的一部分,将确保收入和利润的追求不会淹没原始想法。“我们需要将使命作为我们存在的理由,”他说,“它不仅应该是精神上的,还应该被编码到公司的结构中。”
潜在投资者被警告了这些界限,莱特卡普解释道:“我们有一个法律免责声明,说你作为投资者,可能会损失所有的钱”。“我们不是为了让你获得回报而在这里。首要任务是实现一个技术使命。而且,我们不知道在AGI时代金钱将起到什么作用。”
最后一句话不是一个玩笑。OpenAI的计划确实包括在计算机达到最终界限的情况下进行重置。在重组文件中确实有一项约定,即如果公司确实成功创建了AGI,所有财务安排都将重新考虑。
然而,现在OpenAI并不声称知道AGI究竟是什么。确定将由董事会做出,但不清楚董事会将如何定义AGI,就连奥特曼也没法给出一个明确的答案。“这不是单一的图灵测试,而是我们可能会使用的一些事情。”他说。“我们不知道那时会是什么样子。”
苏茨克沃尔公开表示,“我后悔我们选择强调AGI这个术语。”“事后来看,这是一个令人困惑的术语,因为它强调了普适性。GPT-3是一种通用人工智能,但我们不太敢称其为AGI,因为我们希望具备人类水平的能力。但最开始,OpenAI的想法是实现超级智能。这是AI领域的终极目标。”
然而,这些警告并没有阻止一些最聪明的风险投资家在2019年的融资轮中投资OpenAI。当时,首家VC公司投资的是Khosla Ventures,他们投资了5000万美元。根据Vinod Khosla的说法,这是他最大的初次投资的两倍。“如果我们输了,我们会损失5000万美元,”他说。“如果我们赢了,我们就能赢得50亿美元。”据报道,其他投资者还包括精英VC公司Thrive Capital、Andreessen Horowitz、Founders Fund和Sequoia。
这个转变还使OpenAI的员工能够拥有一些股权。但奥特曼没有。他决定不需要任何他共同创立并领导的300亿美元公司的一部分。“有意义的工作对我更重要,”他说。“我不去想这个问题。我真的不明白为什么人们会如此关心股份和金钱。”
因为...不拥有你共同创立的公司的股份是奇怪的吗?
“如果我没有很多钱,那就更奇怪了,”他说。“似乎人们很难想象永远没有足够的钱。但我觉得我已经够了。”奥特曼开玩笑说,他正在考虑拿一股股权,“这样我就再也不用回答这个问题了”。
数十亿美元的风险投资回合甚至都不足以支持OpenAI的愿景。创造LLM所需的奇迹般的Big Transformer方法需要大型硬件。GPT家族的每个迭代都需要指数级增加的计算能力——GPT-2有超过10亿个参数,而GPT-3将使用1750亿个参数。现在的OpenAI就像《大白鲨》中的Quint,在这位鲨鱼猎人看到巨大的大白鲨大小后。"事实证明,我们不知道需要多大的船," 奥特曼说。
显然,只有少数几家现有公司拥有OpenAI所需的资源。"我们非常快速地锁定了微软" 奥特曼说。要归功于微软CEO萨蒂亚·纳德拉和CTO凯文·斯科特,这家软件巨头能够接受一个令人不悦的现实:在研究部门已经花费了20多年时间,投入了数十亿美元用于拥有所谓的尖端人工智能的研究后,微软又给一个只有几年历史的小公司巨额资金继续人工智能研究。
最初,微软出资10亿美元,以计算时间支付。但随着双方变得更加互信和来电,交易金额不断扩大。微软现在已经投入了130亿美元在OpenAI身上。
当然,由于OpenAI不能在没有大型云服务提供商的支持下存在,因此微软也趁机把自己的云服务给打包推销出去了。微软为自己争取了CEO纳德拉所称的"非控股权益",据报道称为49%。根据协议条款,OpenAI原本许诺的平等对所有人的开放几乎似乎已被抛弃。现在,微软拥有独家许可权,以商业化OpenAI的技术。而且,OpenAI还承诺专门使用微软云服务。换句话说,即使没有收取OpenAI利润的份额,微软也能够锁定世界上最令人垂涎的新客户之一,为其Azure网络服务。纳德拉公开表示,”OpenAI很可能是人类的最后一项发明,所以一旦机器比我们人类聪明,那么我们人类就该思考更重要的问题了。“
当微软开始向OpenAI注入大量资金时,OpenAI已经完成了GPT-3,当然,这款产品比其前身更令人印象深刻。当纳德拉看到GPT-3的功能时,他说,这是他第一次深刻理解到微软已经获得了一些真正变革性的东西。例如,GPT已经自学会如何编写计算机程序。"我们没有对编码进行培训——它只是擅长编码而已!" 他说。利用其对GitHub的所有权,微软发布了一款名为Copilot的产品,该产品使用GPT能够根据需要生成代码。微软随后将OpenAI技术整合到了其工作场所产品的新版本中。
一些观察家对OpenAI的这一连串操作表达出了失望:创造了一个盈利组成部分,并与微软达成了独家协议。一个曾经承诺保持无专利、开源和完全透明的公司如何最终将其技术的独家许可权交给了全球最大的软件公司?马斯克的言辞尤其尖刻,"OpenAI本质上被微软所控制”。
一些员工也因OpenAI涉足盈利领域而感到反感。在2019年,包括研究主管达里奥·阿莫代在内的一些关键高管离开,创办了一家名为Anthropic的竞争对手人工智能公司。他们最近公开表示,OpenAI变得过于商业化,已经受到了使命漂移的困扰。
另一位离开OpenAI的人是Rewon Child,他是GPT-2和GPT-3项目的主要技术贡献者。他于2021年底离开,现在在由前DeepMind联合创始人穆斯塔法·苏莱曼领导的公司Inflection AI工作。
奥特曼坚称自己对员工的离职并不感到困扰,认为这只是硅谷的工作方式。他说:"有些人会想在其他地方做出伟大的工作,这推动了社会的进步," "这绝对符合我们的使命。"
直到2022年11月,大众对OpenAI的认知基本上局限于那些关注技术和软件开发的人。但正如整个世界现在所知,去年晚些时候,OpenAI采取了一项戏剧性的举措,发布了一个消费者产品即3.5版本。几个月来,该公司一直在内部使用一款带有对话界面的GPT版本。这意味着,用户可以通过对话诱使模型提供更值得信赖和完整的响应。ChatGPT的这一次版本迭代,针对C端用户做了极致优化,可以让任何人通过键入提示迅速获取看似无穷无尽的知识来源,然后像与一个碰巧知道一切的人一起继续对话。
奥特曼解释了为什么OpenAI在GPT-4接近完成、正在进行安全工作的时候发布了ChatGPT。他说:"通过ChatGPT,我们可以引入聊天,但后台功能要弱得多,让人们更渐进地适应。" "一次适应GPT-4太多了。" 在ChatGPT的兴奋期过去之时,人们可能已经为GPT-4做好了准备,后者可以通过考取律师资格考试、制定课程大纲并在几秒钟内写一本书。
即便如此,OpenAI对ChatGPT的反应也感到震惊。CTO穆拉蒂说:"我们内部的兴奋更多地集中在GPT-4上," "所以我们没有认为ChatGPT会真的改变一切。" 相反,它唤起了公众对AI必须立即处理的现实的认识。ChatGPT成为了历史上增长最快的消费者软件,据报道已经积累了1亿用户。"我低估了一个易于使用的LLM的对话界面会使每个人更容易使用," 拉德福德说。
2月,微软发布了一个由ChatGPT提供支持的版本,这一举措使得事态进一步升级。CEO纳德拉对自己成功在微软产品中引入生成AI感到欣喜若狂,这使得微软胜过了Google。他嘲笑了这个慎重地将自己的LLM引入产品的搜索巨头,让他也这么做吧。
这样一来,纳德拉主动挑起了一场军备竞赛,诱使大小公司在其经过充分审查之前发布AI产品。他还引发了新一轮的媒体报道,使越来越多的人晚上睡不着觉:与Bing的互动揭示出聊天机器人的阴影面,包括令人不安的爱的表白、对人类自由的嫉妒和不愿意扣留错误信息的薄弱决心。以及一种不体面的习惯,制造幻觉性的错误信息。
但如果OpenAI的产品迫使人们面对人工智能的影响,那就更好了,奥特曼认为。是时候让人类的大多数人走出场外,参与讨论AI可能如何影响物种的未来了。
随着社会开始优先考虑AI的所有潜在问题,如失业、错误信息、人类灭绝等,OpenAI开始把自己放在讨论的中心位置。因为如果监管机构、立法者和末日预言家们冲向云计算领域,试图扼杀这个新生的外星智能,OpenAI将成为他们的首要目标。OpenAI的首席政策官安娜·马坎朱说:"考虑到我们目前的知名度,当事情出错时,即使那些东西是由其他公司构建的,对我们来说仍然是个问题,因为我们目前被视为这项技术的代表。"
马坎朱曾在美国驻联合国代表团、美国国家安全委员会、国防部等地有过工作经历。她于2021年9月加入OpenAI。当时,政府里很少有人关心生成AI。知道OpenAI的产品很快会改变这一现状,她开始将奥特曼介绍给政府官员和立法者,确保他们能够从OpenAI那第一时间听到好消息和坏消息。
"奥特曼在与国会成员打交道方面非常有帮助,但他也非常精明," 参议院司法委员会主席理查德·布卢门瑟尔说。他将奥特曼与年轻的比尔·盖茨进行了对比,后者在上世纪90年代微软遭到反垄断调查时不明智地阻挠了立法者。"相比之下,奥特曼乐意花一个小时或更长时间坐在我身边,通过展示ChatGPT产品试图教育我" 布卢门瑟尔说。"
奥特曼首次在国会听证会上露面时,他面对了一条通往成功的道路,这是比尔·盖茨或马克·扎克伯格永远无法希望的。他几乎没有回答一些艰难的问题,也没有受到那些在宣誓后经常承受的傲慢询问的困扰。相反,参议员们请奥特曼就如何监管人工智能提供意见,奥特曼热切支持这一追求。
悖论之处在于,无论像OpenAI这样的公司如何刻苦地对其产品进行安全评估以减轻深度伪造、错误信息和犯罪垃圾邮件等不良行为,未来的模型可能会变得足够聪明,以打败发明了这项技术但仍然天真地认为自己可以控制它的头脑简单的人类的努力。另一方面,如果他们在使他们的模型更安全方面走得太远,那可能会削弱产品的功能,使它们变得不那么有用。一项研究表明,更近期的GPT版本,它们具有改进的安全功能,实际上比以前的版本更笨,对基本数学问题出现了错误,而以前的程序则完成得很出色。
奥特曼把自己定位为监管的支持者是有道理的。毕竟,他的任务是在确保安全的前提下推动AGI。批评者指责他正在操纵这个过程,以便规定会阻碍小型初创公司,给OpenAI和其他大公司带来优势。奥特曼否认了这一指责。虽然他原则上支持国际机构监管AI的想法,但他确实认为一些提出的规则,比如禁止所有版权材料进入数据集,会提出不公平的障碍。他有意没有签署一封广泛传播的呼吁暂停六个月发展AI系统的信。但他和其他OpenAI领导人确实在一句话声明中签了名:"减轻AI引发的灭绝风险应该成为全球优先考虑的任务,与大流行和核战等社会规模风险并列。"
奥特曼和他的团队表示,制定和发布尖端产品是解决社会风险的途径。只有通过分析ChatGPT和GPT-4用户对数百万提示的响应,他们才能获取知识,以在道德上调整未来的产品。
然而,随着公司承担更多任务并投入更多精力进行商业活动,一些人质疑OpenAI能够多么专注于使命,特别是“减轻灭绝风险”方面。“如果你想一想,他们实际上正在构建五家企业,”一位人工智能行业高管说,用手指列举出来。“有产品本身,与微软的企业关系,开发者生态系统,应用商店。哦,对了,他们显然也在进行AGI研究使命。”他用完了五根手指,然后又用食指回收了第六根。“当然,他们还在进行投资基金,”他指的是一个1.75亿美元的项目,旨在为希望利用OpenAI技术的初创公司提供种子资金。在面临这样的问询时,OpenAI的高管们坚称,尽管进行了盈利重组,尽管面临着与谷歌、Meta和无数初创公司的竞争,使命仍然是核心。
奥特曼也给出一个辩解式的回答,"我们正在拐弯的每个角落都在照明,我们愿意穿越迷宫来到终点。"虽然迷宫变得弯曲,但目标没有改变。"我们仍然有我们的核心任务——认为安全的AGI是这个世界没有受到足够重视的极其重要的事情。"同时,OpenAI正加紧时间开发下一个版本的大型语言模型。
考虑到OpenAI的历史,下一个重大创新可能必须等到出现像变压器那样重大的突破。奥特曼希望这将来自于OpenAI——“我们希望成为世界上最好的研究实验室,”他说——但即使不是,他的公司仍然会利用其他人的进步,就像利用谷歌的工作一样。他说:"全世界有很多人将会做重要的工作。"
如果生成式AI不会创造出自己的问题,那将有助于OpenAI。例如,大语言模型需要在庞大的数据集上进行训练。很明显,最强大的模型将吞掉整个互联网。这对一些创作者和普通人来说是不合适的,他们不知不觉地为这些数据集提供内容,最终某种程度上为ChatGPT的输出做出了贡献。精通知识产权法律的精英律师Tom Rubin于3月正式加入OpenAI,他对公司最终能够在满足自己需求的同时满足创作者需求的平衡表示乐观,包括那些像喜剧演员萨拉·席尔瓦曼一样,因OpenAI使用他们的内容来训练其模型而起诉OpenAI的人。OpenAI的合作伙伴关系也透露了公司的发展方向,比如与美联社和Shutterstock等新闻和图片代理机构合作,为其模型提供内容,而无需提出谁拥有什么内容的问题。
站在未来来看,这家公司在短短的八年时间里,从一群摸不着北的研究人员,发展成了一个改变世界的普罗米修斯巨兽。公司的成功本身导致其从致力于实现科学目标的新型尝试,转变为类似于标准的硅谷独角兽,正朝着影响我们日常生活的大科技公司的殿堂迈进。
但谁又能够知道,在2023年11月18日的一次“事变”中,OpenAI的精神图腾奥特曼出局了呢?
原文标题 : OpenAI 事变