不可避免地,AI侵蚀了人类生活的方方面面,我们无法想象失去AI,生活会变成什么样。不断有言论叫嚣——很快人工智能将占据我们的工作岗位、为人类的战争而战、管理我们的健康状况,甚至像科幻片里上演的情节一样成为人类的主宰。
而大数据,已经将一切看在了眼里。
所以,不要为那些可笑的言论买账。
现实情况是,计算机仍然不能像人类一样思考,尽管它们似乎表现得有模有样。
智能但是不智慧
计算机知道的事实比我们知道的更多——他们有更好的记忆力,能更快地计算,并且不知疲倦。机器人在机械性任务中的表现远远超过人类:如拧紧螺栓、播种、搜索法律文件、接收银行存款和分发现金。计算机可以识别物体、绘制图片、驾驶汽车……你肯定可以轻松地想到其他十几种令人印象深刻的超人类计算机专长。
人们很容易认为,之所以计算机表现地如此优秀,是因为它们非常“聪明”。在四月发表的一份哈佛商学院的研究报告中,实验者研究了人们对歌曲等流行事物的看法的影响因素。部分专家认为人类比计算机更具有说服力,但在比较人和计算机提出的“建议”的影响程度后,显然算法占了上风。
计算机的表现非常优秀,而且会越来越好,但计算机算法的用途仍被设计地非常狭窄,其任务需要被明确定义,例如拼写检查和信息检索。这与通过评估正在发生的事情、为什么会发生以及采取行动的后果来处理不熟悉的情况所需的一般智力相去甚远。
计算机无法形成有说服力的理论、无法进行归纳推理或制定长期计划、无法写出令人叹服的诗歌、小说或电影剧本,计算机不具备任何情感、感受或是灵感。从任何意义上讲,计算机都不知道单词的含义。计算机没有人类通过生活积累的智慧。
计算机甚至不知道这些简单问题的答案:在将橙汁与牛奶混合时,加入少许盐,它的味道会更好吗?如果我闭上眼睛,后退着下楼,这样安全吗?
我不知道开发具有与人类相媲美的一般智能的计算机需要多长时间。我怀疑这需要几十年的时间。我确信声称其已经实现的人是错的,我也不相信那些给出具体日期的人。与此同时,请对那些牵强附会的科幻场景持怀疑态度,请谨慎对待开发AI产品的企业。
探索冰山下的海
放着情感和诗歌不说,如今,使用高性能计算机挖掘大数据模式,以帮助做出重大决策的模式已经逐渐普及。当统计模型分析大量潜在的解释变量时,可能的关系数量变得非常大,可能是数万亿级别的。
如果考虑到更多潜在变量,即使它们都只是随机噪声,有些组合必然与我们试图通过人工智能预测的结果高度相关:癌症、信用风险、工作适应性、犯罪可能性。偶尔会出现有价值的发现,但考虑的解释变量越多,发现的关系就越有可能是巧合的、暂时的、无用或者更糟的。
通过监测Facebook或Twitter上的单词使用情况以评估求职者的算法可能会发现虚假的相关性,这些相关性是工作绩效的不良预测指标,对不同性别、种族、性取向和年龄产生了不同的影响。
2016年, Admiral Insurance开发了一种汽车保险算法,评估人们在Facebook上是喜欢迈克尔·乔丹还是喜欢莱昂纳德·科恩(Leonard Cohen)。在预定发布的几个小时前,Facebook表示不会允许Admiral访问Facebook的数据;Facebook可能更关心的不是歧视或隐私,而是它拥有自己的专利算法,可以根据你和你的Facebook好友的特征来评估贷款申请。
最近,亚马逊的一项工作申请算法主要是针对男性工程师的简历进行训练,据报道,该算法“惩罚”了简历中带有“女性”字样的简历。亚马逊发现,尽管他们尽了最大努力,但其工程师仍无法确定该算法是否仍然歧视女性,因此亚马逊决定将该软件毙掉。
2017年,国内一家人工智能借贷App的创始人兼首席执行官称:“银行只专注于冰山一角,但我们构建的算法要去理解海底的大量数据。”那么海底有哪些有用的数据?你可能会惊讶地发现它完全与智能手机有关。
该CEO吹嘘道:“我们不聘请传统金融机构的任何风险控制人员,我们不需要人类告诉我们谁是好客户,谁不好。技术就是我们的风控员。”在显示一个人有良好信用风险的数据中,有一项数据显示了接听电话的频率。这不是一种毫无意义的接电话倾向,而是肯定会歧视那些宗教信仰禁止在特定日期或特定时间接电话的人。
人工智能的黑匣子
2016年希拉里·克林顿竞选团队栽了个大跟头。他们严重依赖一个软件程序,却忽视了人们的呼声,以至于没有关注密歇根州和威斯康星州,等到发现后早就为时已晚。经验丰富的竞选工作人员知道选民的热情不足,但热情很难衡量,所以计算机将其忽略了。
如果发现的模式隐藏在黑匣子内,情况会更加恶化,即使设计算法的研究人员和工程师也无法理解黑匣子的内部细节。通常,没有人知道为什么电脑得出结论说应该购买某支股票,某个求职者应该被拒绝,某个病人应该接受某种药物治疗,某个囚犯应该被拒绝假释,某幢大楼应该被炸毁。
人工智能与数字广告以及个人数据的结合,扩大了潜在损害的范围,特朗普竞选团队承包商剑桥分析公司就是一例。企业和政府收集的大量个人数据被用来推动和刺激我们去买我们不需要的东西,去我们不喜欢的地方,投票给我们不应该信任的候选人。
在人工智能和大数据时代,真正的危险并不是计算机比我们更聪明,而是我们认为计算机比我们更智能,进而盲从计算机为我们做出的决策。计算机并非万无一失,我们必须要自己来判断统计模式是否有意义,或者仅仅是巧合。
人类推理与人工智能存在根本性的不同,这就是为什么我们比以往更需要缜密的推理。