“偏见”:AI发现人为造成的不公平
在笔者翻译的一篇文章中指出招聘、协作、销售工具中的AI偏见无处不在。偏见是AI的致命弱点。而DataRobot的研究发现,在美国和英国,将近一半(42%)的AI专业人士“非常”或“极其”担心AI偏见。AI可以在最意想不到的地方出现,没有系统可以免疫。
根据领英(LinkedIn)的研究,43%的招聘人员和招聘经理表示,在招聘工具中引入AI的一个关键好处是它有消除人类偏见的潜力。然而,承诺将偏见最小化的人工智能工具,也可能在招聘过程中注入偏见。以谷歌的招聘广告算法为例,更多向男性显示高薪职位。
的确在招聘和销售等领域容易产生偏见,但是偏见是AI带来的吗?
“AI的偏见是数据原生的偏见。”叶松林强调,假如数据里面多数男性的工资本身即高出女性10%,AI在读取数据后,便会提供一个男性薪资高出10%的建议。
“这种偏见并不是说机器造成的,而是机器告诉你,世界上存在不平等的问题。这种不公平是过去长久以来人造成的。恰恰是AI把这个问题揭示出来,以前人们可能没有意识到这个问题,AI把这个问题有效地揭示出来之后,人在做决策的时候,恰恰可以有意纠正它的不公平性。”高云龙进一步指出偏见本身就是数据所潜在的客观规律。
所以Tableau强调AI只是辅助公司做决策,可以提一些意见,对公司而言人才是最重要的。
Tableau 数据科学家兼主任软件工程师Rachel Kalmar指出:“AI 项目中最困难的环节之一就是确定您要提出的问题。”协作式方法可以揭示业务决策的哪些环节适合使用AI,哪些环节需要人工干预。假设要开一家新的零售商店,但以前从未开过这样的商店。基于 AI 的系统可以根据该地区的人流或人口统计学特征来提供建议,帮助预测商店的预期销售额。但仍然需要领域专家的帮助,这些人可以在位置可见性、竞争对手信息或停车位情况等方面填补空缺。要让机器学习建议实现其价值,决策必须由人来制定。正如 Tableau 的AI 主管产品经理 Richard Tibbetts 解释的那样:“AI 的出现并不意味着算法会告诉您如何做生意。真正帮助组织采用和信任AI 的是领域专家。”
由大数据、云计算、AI等技术推动着数字化世界的构建,而数字化世界所出现的诸多问题同样是现实社会的映射,或许有数据的地方就免不了存在偏见和不公,消除偏见是一个长久的命题。我们仍然可以做一些力所能及的事情,比如加强监督,让多样化的团队构建软件工具,仔细检查数据健康度,加强内外部审计等。说到底,人与AI之间如何更好的协作取长补短才能有效消除更多偏见需要更多的探索。