这就引出了本文想要讨论的主题:AI与偏见的关系。关于这点,笔者认为有必要澄清以下两方面:
(一)AI作为工具,映射的是人类本就存有的偏见、歧视。有不少媒体使用了“人工智能存有偏见”或“人工智能产生歧视”这样的词组搭配,似乎“人工智能”是生产偏见、歧视的主体。其实,AI的定语是“人工”,它只是人类的工具,换言之,只不过人类偏见、歧视和刻板印象的新的载体。
正如巴斯大学的Joanna Bryson所说的那样:“很多人都认为是AI存在着偏见,不,这正表明是我们有偏见,AI 正在有学有样。”谷歌认为AI之所以出现偏见,源自于实施算法过程中“互动偏差”、“潜在偏差”以及“选择偏差”。其实,即便没有这些操作步骤中的偏差,AI 仍将充满偏见,因为人类社会和文化本身由无数偏见组成。
(二)AI作为工具,还将大大强化人类社会中的偏见、歧视。数次技术革命给人类社会带来的巨大改变,这使得我们的文化对于科学技术拥有了一种盲目的乐观和崇拜,“数字”、“科学”、“实验”这些词几乎等同于“真理”、“正确”,这种“唯科学主义”很容易忽略掉技术本身的“主观性”——AI看相摸骨正凭借这点趁虚而入。这次人工智能浪潮对于社会生产力无疑具有巨大赋能潜力,这同时意味着倘若偏见、歧视混入其中的话,AI将为人类带来更隐蔽、更深广的破坏力度。因此,人工智能领域不仅需要积极拥抱新技术的乐观主义者,还能接纳那些忧心忡忡的卢德主义者们。
(微软AI聊天机器人Tay上线后,很快沦为人性阴暗面的镜子)
那么,在充满偏见的社会语境中,应该如何以正确方式地打开AI呢?
首先,不要人为地用AI制造出更多的偏见。最近, 据Futurism.com报道,来自美国的一家新闻媒体平台Knowhere试图用AI技术重写新闻报道,以祛除语言文字中的偏见性因素。在其官网的自我介绍中,他们声称自己家的新闻报道是“世界上最客观的新闻”(The World’s Most Unbiased News),其重写新闻的大致流程如下:
使用AI搜集互联网上围绕某一主题的所有新闻,不管这些内容是中立、左翼倾向或右翼倾向的;AI根据这些资料重写一篇中立的新闻报道,这篇报道在涵盖基本的事实和数据的基础上,还小心翼翼地移除了任何可能引发偏见的词汇;除此之外,AI 还将分别重新写出左倾、右倾的新闻报道,以供有兴趣的读者阅读;最后,AI针对同一主题重写的这三篇文章都将经过专业新闻编辑的审阅、修改及核定,才会刊发在其网站上。
对比该网站关于同一事件所使用的三个版本的新闻标题是非常有意思的,以朝美会谈为例,中立报道的标题是“总统川普同意与朝鲜领导人金正恩进行历史性会晤”,左倾报道的标题是“感谢川普,朝鲜电影宣传成真啦”,右倾报道的标题是“朝鲜是川普政策的最终考验”。
这种模式乍看之下十分新鲜,但是经不起太多琢磨:谁来决定“中立”的标准?怎么确保决定标准者是完全中立的?AI在筛选、重组新闻的过程中是否能够彻底贯彻人为设立的中立标准?或者更进一步,将新闻的阅读人群分为Left、Impartial、Right本身是否也是某种意义上的“偏见”?因此,Knowhere的出发点是减少偏见的存在,而最终的实际效果反而是固化了它们——这点和斯坦福大学、上海交大的两项研究非常类似,都犯了“带着偏见,然后再用AI来验证/强化自己的偏见”的错误。
其次,利用AI去正视、理解以及研究人类自身的偏见。去年发表的一篇名为《基于词语嵌入技术量化百年间性别和种族成见》(Word em beddings Quantify 100 Years of Gender and Ethnic Stereotypes)的论文就为我们做了很好地示范。研究者将AI技术与词语嵌入结合在一起,分析了有近2亿词汇的1910-1990年之间英语世界出版的报纸、杂志和书籍,从中提取了与性别、种族有关的形容性词汇,并对其统计、汇总、排列,找出了许多发人深思的现象。
比方说,研究人员发现,过去百年间越来越多的有关工作能力的词汇与女性关联起来,如 resourceful(机敏的)、Clever(聪明的) 等,也有一些词汇一直被施之于女性,如alluring(迷人的)、homely(相貌平平的) 等。又如,1910年形容亚裔的大多是 barbaric(野蛮的)、greedy(贪婪的)这样的负面词汇,而到了1990年情况虽然有所改善,有了像fixed(坚定的)、active(活跃的)等词汇与之联系,但是施诸他们最多的仍是haughty(高傲的)、dissolute(放荡的)这样的词汇。
该项研究使用AI这把利器,大量分析了人类过去所产生的文本,以精确、高效的方式揭示出我们社会文化中潜藏着的不易为人察觉的偏见、歧视和刻板印象,要远远地优于过往那种印象式的、或样本数量较少的社会学研究成果。这一研究同样来自斯坦福大学,与Michal Kosinski和Yilun Wang的那个研究相比,格局、立意孰高孰低,无须多言,一目了然。
所谓,知乃行之始。我们人类应该借助AI的优势,重新检视自身文化中或隐或现存在着的偏见、歧视和刻板印象,然后带着这种清醒的认知和逐渐形成的共识,时刻审视和调整自己应用AI技术的立场与动机,避免AI沦为反映、放大乃至制造偏见的新场域,最终,让这一技术成为我们期待着的那个美好的样子。
对了,关于形形色色的“相术”和上述这些道理,几千年前的荀子早在《非相》篇里说过了:
“相形不如论心,论心不如择术”。