藏在GPT背后的治理分歧:那些赞同和反对的人们|AI百态(下篇)

算力智库
关注

AGI的火种正在燎原。

一面是无可否认的AI生产力,正在赋能千行百业;而另一面,这团火似乎烧向了我们不可控的隐秘角落。

在《AI百态(上篇)——ChatGPT的“N宗罪”》中,我们提到监管重锤在落下,意大利率先下达禁令,法国、爱尔兰、德国等不少国家开始效仿,准备封杀ChatGPT,而加拿大隐私专员办公室(OPC)就在近日宣布将对OpenAI展开调查,指控ChatGPT在未经同意的情况下收集、使用和披露个人信息。

伴随呼啸而来的争议和监管风暴,GPT走在了命运的关口。

阿西莫夫的科幻世界中,在底层逻辑上给人工智能设置了三大定律,保证它们作为工具,无法威胁到主人。那么在新世界里,又该如何建立AI世界的文明守则呢?

继续Or暂停?一场围绕AI的激辩正在展开。

是为序。

若按外媒《Axios》的口风来看。

4月12日,在旧金山,本该有一场高规格的会议,由硅谷知名投资人& SV Angel创始人Ron Conway发起召集,而参与会议的来客皆是科技圈顶流巨头——OpenAI、Google、Microsoft、Stability AI、Nvidia、Hugging Face、Anthropic、Apple......这次聚首将Battle搬到了台面上,目标直指如何建立尽责又安全的AI。

而这出戏的前传则始于一封题为《暂停巨型人工智能实验》的“千人联名”公开信,马斯克、图灵奖得主Yoshua Bengio、Stability AI首席执行官Emad Mostaque、纽约大学教授马库斯,以及《人类简史》作者Yuval Noah Harari、苹果联合创始人等多名大佬签名呼吁暂停开发强大的人工智能(AI)系统,以便有时间确保它们的安全,他们还为这次暂停定了个时间:至少六个月。

这份极具分量的公开信一举将AI送上了风口浪尖,而随后比尔盖茨也公开回应:暂停人工智能发展的呼吁解决不了未来的挑战。盖茨称,大家关注的焦点应该是如何最大程度上利用好人工智能的发展,停止人工智能的发展是很难实现的事情。

针尖对麦芒,尽管截至算力智库发稿前,并没有关于此次“硅谷会议”的更多消息流出,但显而易见,关于ChatGPT,关于AI,仿佛历史的车轮已经驶向了关乎人类福祉的抉择时刻,支持者,反对者,激进者、观望者或者还有另有目的者,各持主张,论战正酣,以试图影响AI的发展进程。

反对派 VS 支持派

反对派举的旗帜是什么?在他们看来:

1、AI有可能会造成信息污染和挤压就业空间

2、人类会陷入一场失控竞赛,对于更强大的AI,没有人能理解、预测和控制。

3、只有确信AI的影响是正面且风险可控的时候,才能去开发更强大的AI系统

4、从危险的竞赛中退一步,避免研究更大、更难以预测、具有突现性能力的黑箱模型。

公开信指出:正如大量研究表明的那样,具有人类竞争智能的人工智能系统会对社会和人类构成深刻的风险。就连OpenAI创始人Sam Altman也说,无法理解GPT-4的进化逻辑。如果人类无法预测AI的下一步发展,不知道它未来是好是坏,那么确实应该更加谨慎。

按照公开信的提议,在暂停期间,人工智能实验室和独立专家应该共同开发一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。如果这种暂停不能迅速颁布,各国政府应该介入并制定暂停令。

反对派的声浪裹挟着监管层的动作,4月11日,据《华尔街日报》报道,拜登政府已经开始研究是否需要对ChatGPT等人工智能工具实行检查。作为潜在监管的第一步,美国商务部4月11日就相关问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序,征求意见期限为60天。一家非营利性研究机构人工智能和数字政策中心(Center for AI and Digital Policy,CAIDP)也将状告到了美国政府部门。他们要求联邦贸易委员会(简称 FTC)调查 OpenAI,声称这家新贵公司发布了 GPT-4,违反了商业法,同时他们认为该产品具有欺骗性并将人们置于危险之中。

反对派认为当下的AI是猛兽,野性十足,还有待驯服,这点“AI支持派”不置可否。

而较为激烈的争执之一则是是否要让政府直接重度介入,吴恩达——反对“反对派”的阵营中的大拿代表,同时也是当前人工智能和机器学习领域的一方泰斗,谷歌大脑的缔造者、世界上最大的在线学习平台之一Coursera的创始人。他直接反驳了马斯克等人要求政府介入干预的观点:让政府暂停他们不了解的新兴技术是反竞争的,这会树立一个可怕先例,是糟糕的创新政策,尤其是对6个月的暂停期他表达的了强烈的反感。

这位著名学者认为:提高人工智能安全性的解决方法,应该是围绕透明度和审计建立更加实用的法规,而不是政府“因噎废食”般的一纸禁令。

“政府的手可以伸,但利用政府之手来消灭市场矛盾,其实是诺斯悖论的体现,最极端的结果是创新失活,经济倒退,而或许别有用心者借国家暴力机器来打压对手为自己谋得时间机会,这个口子一旦打开,风险远比AI更甚”。一位业内专家向算力智库坦言。

一直以来性格温和的吴恩达此番言辞激烈的表态并不多见。在他的推文下面,Meta数据科学家林致远,英伟达AI研究科学家Jim Fan也表示了赞同和支持。

而更核心的分歧则是,一众学者认为反对派在混淆认知,散布AI威胁论,其意是想鼓动公众情绪,却并没有在正视如何解决问题。Hugging Face 的研究科学家兼气候负责人 Sasha Luccioni 表示,“这(公开信)本质上是误导:让每个人都注意到 LLM (大型语言模型)的假设权力和危害,并提出一种(非常模糊和无效的)解决方法,而不是此时此地正确看待风险并尝试解决这些问题——例如,在 LLM 出现时,可以要求相关企业对 LLM 的训练数据和能力实行更高的透明度 ,或有关何时何地可以使用它们进行立法。”

华盛顿大学语言学系教授、公开信中引用的第一篇论文的共同作者 Emily M. Bender 在推特上表示,这封公开信掺杂了“Aihype”(AI炒作),她也认为问题的症结,不是AI本身,而是更要提防AI背后的人和权力体系,Bender 反驳说:“我们在 2020 年底写了一篇论文《随机鹦鹉》(2021年发表),指出这种不考虑风险就一头扎进越来越大的语言模型的做法是一件坏事。但风险和危害从来都不是关于‘太强大的人工智能’本身,相反,它们是关于权力集中在人的手中,关于压迫制度的再现,关于对信息生态系统的损害,以及关于对自然生态系统的损害(通过对能源资源的暴殄天物)。”

相比吴恩达等人旗帜鲜明的反对公开信的主张之外,还有另一位人工智能领域大神级人物也亮明了自己的观点,他就是图灵三巨头之一,卷积之父杨立昆,不过他的出发点,是在于:公开信无用,人类叫停不了AI。

他在推特上表示,自己并未签署这封公开信,“我没签,我不同意这封信的前提。”之后,他通过网友的推文继续表露反感。一位网友表示,OpenAI足足等了6个月,才发布了GPT4,而他们甚至为此还写了一份白皮书。杨立昆转发了这条推文并附上了自己的评论:所谓“暂停研发”,不过就是“秘密研发”,这与一些公开信签名者所希望的会恰恰相反。

的确,暂停巨型AI实验就像是一个幌子,人类过去的历史证明,在国际竞争的语境下,“你有我无”的这种情况是不被允许的,“你有我也必须有”,拥核国家牵头制定“核不扩散条约”,但所有人放弃了核武器吗?并没有,猜疑链已形成,这种足以带来先进生产力甚至下一代科技革命的超级AI工具,没有国家会试图放弃和叫停。

国外Reddit论坛上的一条评论已经能说明这一问题:Guess who’s not gonna stop:China。国内科技界的声音似乎也在印证这点,360创始人周鸿祎在微博上回应马斯克请愿叫停GPT-5研发一事,“不管你愿不愿意,GPT都将引领一场新的工业革命,意义超越互联网和iPhone的发明。它将带来生产力的大幅提升,进而提升国家竞争力。中国一定要迎头赶上。”周鸿祎表示。

周鸿祎也承认,最近人工智能的指数级跃变确实有点让人措手不及。对于马斯克的请愿信,他不了解内幕,但猜测是GPT的进化路上出现了超乎人类想象的现象。对于人类如何应对AI带来的未来安全挑战,谁也没法给出确定答案,但做安全出身的他坚定认为,不发展才是最大的不安全。

值得一提的是,在这场各派系此起彼伏的不休争论中,伴随着支持派的高密度游说,监管层面的信号似乎也有所松动。

当地时间4月12日,意大利数据保护局 (Garante)提出了一系列聊天机器人ChatGPT在该国恢复使用的要求。并表示,在解决监管机构的担忧后,意大利当局将暂停对OpenAI处理该国用户数据的临时限制令,OpenAl也将再次在意大利开放。根据Garante的要求,OpenAI必须在其网站上发布信息,说明它如何以及为什么处理用户和非用户的个人信息,并提供更正或删除这些数据的选项。

即便OpenAI作为这场唇枪舌剑的靶子,首当其冲,但不得不承认这波技术炒作周期还是让OpenAI吃足了红利。在持续的热度下,一些竞争对手和企业利用OpenAI开发的生成式AI软件制作应用。使用OpenAI技术需要获得授权,拿到授权要付费,一美分或者稍多能生成2万单词的文本,按照书面提示生成一张图片大约要2美分。根据 PitchBook 的数据,OpenAI 今年营收将达到 2 亿美元,比 2022 年增长 150%,2024 年将达到 10 亿美元,这意味着增长 400%,公司估值达到200亿美元。

Reaction背后的“不同算盘“

公共场域的议论,从来都是箭无虚发,每一支箭头的去向,都藏着利益相关者的诉求。

人工智能领域的资深作家莎伦·戈尔德曼指出,企业高管并不担心人工智能摧毁人类,他们只关心人工智能和机器学习是否能提高工人的工作效率、优化客户服务。

OpenAI的首席执行官Sam Altman一边宣称他“有点害怕”公司的人工智能技术,一边“正帮助建设和尽可能广泛地推广技术,以获取利润”。洛杉矶时报表示:一个高调的技术公司的首席执行官或高管,反复在公众舞台上渲染对自己正在建设和销售的产品的担忧,这种行为背后的逻辑只能是“关于人工智能可怖力量的世界末日论有助于他的营销战略”。

深谙此套路的不止Sam Altman,马斯克堪称“AI威胁论”的拥趸,在各种公开场合贡献了不少激进语录,譬如“AI对人类文明的威胁程度远高于车祸、飞机失事、毒品泛滥等、人工智能可能引发第三次世界大战、通过人工智能,我们正在召唤恶魔、人工智能要比核武器危险得多、未来AI若达到人类智商水平并掌握了财政、武器及关键基础设施,将有可能摧毁文明甚至毁灭人类”。但在炮制AI恐怖论的另一边,马斯克在美国内华达州成立了一家名为X.AI的人工智能(AI)公司,旨在与聊天机器人ChatGPT的开发公司Open AI展开竞争。内华达州备案文件显示,马斯克是为X.AI的唯一董事。

似乎这封公开信成为了一出“缓兵之计”,潜台词是:在AI这条跑道,等等我,先停一下,再过6个月,我就能赶上你们了。

前白宫科技政策办公室助理主任文卡塔苏尼安认为,“很多伪装成技术讨论的东西,背后都有一个巨大的政治议程。” 围绕人工智能的讨论已经从技术和科学领域转移到了政治和权力领域。

的确,这场AI之争的战线,并没有止戈于科技圈,在AI的阵地上,各国都意在借此机会,抢夺话语权。

欧盟首先打响了第一枪,意大利之后,德国,法国、爱尔兰、西班牙等欧洲国家都势在收紧对AI的监管,隐私安全只是其因一,更深层次的原因或许是从《通用数据保护条例》(GDPR)到《数字市场法案》一脉相承的理念,即在互联网世界里建立欧盟的数字边疆。

据悉,在欧盟逐步制定全世界最具约束性的人工智能管理方法之际,欧洲议会准备对人工智能的使用实施严厉的新措施,其中包括要求聊天机器人开发商披露他们是否使用了受版权保护的材料。此举旨在让内容创作者有权获得报酬,议员们还希望,误用或滥用人工智能项目的责任由OpenAI这样的开发者而不是使用人工智能的小企业来承担。

很显然,欧盟对于ChatGPT强硬态度的背后,是对美国科技巨头在欧洲攫取用户数据并大获其利的长期积怨,如今在互联网世界,诸如Facebook、Amazon、Microsoft、Apple、腾讯、阿里巴巴、字节跳动等叫得上号的科技巨头都是来自中美,欧盟则几乎是互联网时代的失意者,此举或许是想为本土的生成式人工智能留足生存空间。

此前,欧盟对谷歌、苹果、Facebook、亚马逊和微软等美国科技巨头都提出过多项重大指控,其中包括滥用个人数据、扼杀竞争、未缴纳足够税款、窃取媒体内容以及通过传播虚假新闻等。

而作为既得利益者的美国,在AI监管方式的选择上,美国更强调AI的创新和发展,以维护美国作为全球AI创新领导者的地位,因此对于立法监管采取非常谨慎的态度,因此更倾向于通过组织自愿适用的指引、框架或标准等非监管方法对AI应用采取软治理。

美国NIST在今年1月26日发布的《AI风险管理框架1.0》便是例子,其遵循的思路主要是“基于风险的治理”,在美国的这份框架中,包括治理、映射、测量和管理的四个部分,治理指要在组织的制度流程、组织建设、组织文化、技术能力等方面践行AI风险管理框架;映射主要用于确定特定场景与其对应的AI风险解决方案;测量主要采用定量和/或定性的工具、技术和方法来分析、评估、测试和监控AI风险及其相关影响;管理主要是将相关资源分配给相应的AI风险,进行风险处置。从这份框架以及美国4月颁布的《人工智能问责政策征求意见》可以看出美国在制定人工智能监管方面政策时,重点在于问责明确。

值得关注的是,与欧盟相同,美国也拒绝对AI应用进行无差别监管,强调应根据AI应用带来的风险和后果进行差异化的分级监管。

与此同时,4月11日,中国国家互联网信息办公室也下发了《生成式人工智能服务管理办法(征求意见稿)》的通知,其透露的监管思路也是“基于风险的管理”,重点体现在对作为AI核心技术的数据和算法的监管上,目前已有《数据安全法》《个人信息保护法》《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》等法规有交叉涉及,但尚未有一个专门针对AI的整体立法框架。

人工智能需要“锁在笼子里”,但锁住后的结果会如愿吗?

研究表明,欧盟的人工智能法案的实施成本将吞噬欧洲人工智能投资的17%,目前该风险并非仅是理论性存在。2020年6月欧盟进展报告显示《通用数据保护条例》实施的碎片化和各实施机构的资源投入不足,不仅导致其生效的附加治理的效应不足,还降低了进入欧洲市场的风投资本规模,谷歌在欧洲的市场份额不仅没有下降,反而剧增。《通用数据保护条例》的实践证明严格的标准正在产生意外的后果。

而今AI法案即将落定,作为全球首部人工智能立法,其效力范围不仅局限于欧盟范围内,而且有广泛的域外效应,不仅是欧盟统一大市场的规模让任何企业都无法忽视AI法案,更重要的是在新技术领域内规范影响力的独特的路径依赖效应,一旦规则形成将难以撼动。正如欧盟《通用数据保护条例》所显示的,欧洲规则很快成为在数据保护领域内的国际标准,这种意外的后果很难说不会再发生在人工智能身上,届时吹响的不知道该是AI的哀歌?还是号角?

       原文标题 : 藏在GPT背后的治理分歧:那些赞同和反对的人们|AI百态(下篇)

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存