想象一下,当你推倒多米诺骨牌时,第一张牌倒下,而后每一块牌迅速产生反应,直至最后一块牌。实际上,这种连锁反应不局限于物理界,而是广泛存在于各个科学领域。
而今天,科学家们都在讨论一个全新的、会产生连锁反应的领域——AI。许多人提出,AI 的智力就像多米诺骨牌一样,一旦打开某个开关,它就会不断地自我补充,形成 AI “智力爆炸”,甚至最终可能超越人类智力。
近日,世界知名的人工智能专家、前加州大学教授 Lance B. Eliot 博士在福布斯杂志发表文章,详细讨论了 AI “智力爆炸” 这一问题。
你说的 “AI” 不是 “真正的 AI”
一些科学家认为,某一天,AI 有可能会发生 “智力爆炸”,并且宣称,这可能发生在 2050 年至 2100 年之间。但没人知道具体的答案。
事实上,目前已存在的 AI 系统,还无法与人类智力相提并论。当前基于计算机的 AI 可以做一些相当棘手和令人印象深刻的事情,但这充其量只能称作是 “狭义的 AI”--- 它只能在有限的范围或领域中工作,而且缺乏与人打交道的常识性推理能力。
而真正的 AI,通常被称为 AGI(Artificial General Intelligence),可以毫无悬念地通过图灵测试。
但目前,世界上还没有一个 AGI。
有人认为,只有人类才可能展示出最高水平的智力,因此,AI 智力无论经过多少演变发展,都不可能达到高于人类的水平。因此,AI 经过智力爆炸后,将达到与人类智力完全等同的程度,而后便停滞不前。
但相反,也有另一种观点认为,AI 智力的爆炸式增长将会超越人类智力,并停留在所谓的超级智能左右的水平上。
超智能水平究竟有多高?我们对此暂时毫无了解。
但有人坚信,尽管超智能会超出人类的智力水平,但它本身也将具有一个界限或最终优势。同时,AI 智力爆炸可能是一个永无止境的连锁反应——AI 可能会不断地发展,引发超级 AI,再引发超级超级 AI…… 总之,变得越来越聪明,直到永远。
AI 智力爆炸,于人类是利还是弊?
我们不得不注意的一个问题是:超级 AI 可以思考出、做到、看到或说出哪些我们普通人所不能做到的?
Eliot 教授给出的答案是,超级智能大概可以解决癌症,世界饥饿,解释宇宙是如何开始的,并且从本质上可以回答人类仅有的敷衍智力尚未解决的、所有棘手的开放性问题。
令人悲伤的是,人类的普通智力甚至可能不足以识别出超级智能所能想到的东西,因此到那时,人类在 AI 眼中可能如同小小蝼蚁,超智能 AI 要么容忍我们的存在,要么帮助我们存活下去。
它可能试图将我们推向智能阶梯,或者决定让我们成为 “宠物”,可能会教给我们新的智慧,也可能会认为我们不值得它为此烦恼而放弃我们。
但另一方面,这是否意味着我们根本不需要任何其他新发明,因为以某种方式拥超智能有 AI 就可以满足我们的所有需求?
想象一下,有时候与真正聪明的人在一起时,我们的智力会得到提高,因为与对方的交互作用可能使我们沉迷、吸收或以某种方式放大自己的智力。因此,假如我们实现了 AI 超智能,则可能导致我们作为一个物种的自身智能的增加,这似乎也是合理的。