打开AI的黑箱 IBM推出云工具检测AI偏见

人工智能服务网 中字

IBM推出了一项软件服务,可以扫描人工智能系统的工作情况,以便检测偏见并为正在做出的自动决策提供解释,一定程度的透明度可能是合规目的所必需的,而不仅仅是公司自己的尽职调查。

新的信任和透明度系统运行在IBM云上,并与从IBM作为各种流行的机器学习框架和AI构建环境所构建的模型一兼容,包括自己的Watson技术,以及Tensorflow、SparkML、AWS SageMaker和AzureML。

它表示,可以通过编程来定制服务以满足特定的组织需求,以考虑“任何业务工作流程的独特决策因素”。

完全自动化的SaaS解释了决策并在运行时检测AI模型中的偏见,这意味着它正在捕获“发生时可能产生的不公平结果”。

它还会自动建议添加到模型中的数据,以帮助减少已检测到的任何偏见。

人工智能决策的解释包括显示哪些因素加重了某个方向的决策、对建议的信心和信心背后的因素。

IBM还表示该软件会记录AI模型的准确性、性能和公平性,以及人工智能系统的系谱,这意味着它们可以“以客户服务、监管或合规原因轻松跟踪和召回”。

关于合规方面的一个例子,欧盟的GDPR隐私框架参考了自动决策,并且包括让人们获得有关算法在某些情况下如何工作的详细解释的权利,这意味着企业可能需要能够审核他们的AI。

IBM AI扫描仪工具通过可视化仪表板提供自动决策的细分,这是一种减少对“专业AI技能”依赖的方法。

然而,它也打算让自己的专业服务人员与企业合作使用新的软件服务。因此,它既可以销售人工智能,也可以解决人工智能的不完美问题,当企业试图修复他们的AI时,专家可以帮助消除任何问题。这表明虽然AI确实会删除一些工作,但自动化将忙于创建其他类型的工作。

IBM也不是第一家发现AI偏见商业机会的专业服务公司。几个月前,埃森哲公开了一个公平的工具,用于识别和修复不公平AI。

因此,随着对多个行业自动化的大力推动,设置和销售服务以解决因增加AI的使用而出现的任何问题,看起来也相当庞大。

事实上,鼓励更多企业对进入自动化更有信心。(在这方面,IBM引用了它所进行的研究,发现虽然82%的企业正在考虑人工智能部署,但60%担心责任问题,63%缺乏内部人才来自信地管理技术。)

除了推出自己的付费AI审计工具之外,IBM表示,其研究部门将开放采购AI偏见检测和缓解工具包,旨在鼓励“围绕解决AI中的偏见进行全球合作”。

“IBM引领行业建立信任和透明度原则,以开发新的AI技术。现在是时候将原则付诸于实践了,”IBM认知解决方案高级副总裁David Kenny在一份声明中表示。“我们正在为使用人工智能并面临任何有缺陷的决策产生最大潜在风险的企业提供新的透明度和控制权。”

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存