在企业中推动文明人工智能的六个建议

企业网 中字

利用设计思维

埃森哲峡湾设计咨询公司的董事总经理Shelley Evenson表示,无论公司是在内部创建人工智能还是购买商业工具,它们都应该使用设计思维来打造解决方案,因为这有助于解决算法中可能存在的偏差。虽然使用天气和社交媒体方面的征兆来预测销量或产品需求的内部应用程序没什么危害,至少没有那些能对员工和客户产生直接影响的征兆危害那么大,为设计技术的过程着想是一个很好的方法。

利用技术消除偏见

企业人工智能开发人员还必须接受培训,以测试和修复无意中将夹带了偏见的系统,这些偏见使用户或其他受影响的各方受到不公平的待遇。公司还可以利用各种工具来检测数据变量与敏感变量(如年龄、性别或种族)相关联的工具,以及评估和解释机器学习算法是如何生成输出结果的方法。例如,Srivistava表示公司可以将数字“面包屑”插入算法中,从而跟踪决策过程。

对人工智能的使用保持透明

只要对人工智能的使用持公开透明的态度,公司就可以与利益相关者建立互信的关系。例如,Schatsky说,智能体应该将自身当成人类,不是伪装成人类(如今很多聊天机器人仍在模仿人类)。公司还应披露对客户造成影响的自动决策系统的使用。在可能的情况下,公司应该清楚地对这一切做出解释:它们收集哪些数据,他们使用这些数据来干什么,以及这些用法会对客户形成怎样的影响?。

缓解员工对失业的焦虑

人工智能将在多大程度上引发失业或改变工作,这目前尚不清楚,但公司应该开始对员工展开教育,让他们知道自己的工作可能会发生怎样的变化,并建议他们采取各种提升技能的方法,从而与时俱进。这包括对工人进行再培训,因为他们的所做的事情将被自动化——或给他们时间寻找新的工作。例如,由于机器人过程自动化(RPA)渐渐开始处理低级的任务,保险公司State Auto正在训练员工处理更复杂的理赔工作。

最重要的因素

Schatsky说,这一切都不容易,主要是因为人们没有在某些情况下或与某些利益相关者就道德标准达成充分的共识。Schatsky说,无论采用何种方法,企业要采取行动而不是“等待人工智能相关法规出台”,这才是明智之举。

政府正朝着这个方向努力。欧盟委员会于4月就组织应如何开发人工智能(AI)的道德应用发布了一系列指导方针。两天后,美国政府提出了《2019年的算法责任法案(Algorithmic Accountability Act)》,以处理高风险的人工智能系统,例如能根据敏感的个人数据检测人脸或做出重要决策的技术。

无论监管在未来会是什么样子,首席信息官尚有时间来解决问题。目前,由于数据匮乏,而且数据质量有问题,企业人工智能的采用受到阻碍;机器学习建模师、数据科学家和其它领域的人工智能专家十分稀缺;结果十分不确定;当然,O’Reilly的一项调查指出,还有各种道德问题和偏见。

O'Reilly发现,金融服务、医疗和教育部门占采用人工智能的企业的58%,而电信、媒体以及娱乐业、政府机构、制造业和零售企业各占4%。

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存