深度解读《人工智能的可解释性》

物联网风向
关注


可解释性人工智能的应用场景

人工智能的可解释性为使用它的人,使用它的产业,提供了一种信任的基础。有了这样的基础,AI才可以在更广的范围内发挥它更大的作用。那当不同的人工智能模型组成一个复杂的系统时,我们该如何体现整个系统的可解释性?

主讲嘉宾:Element AI 联合创始人、首席科学官  Nicolas Chapados博士

举个例子:

我们使用计算机视觉对图像进行学习和分析,来判断图像当中哪些是狼,哪些是哈士奇。在左下角的这幅图里,这个算法错误的把一只哈士奇当作了狼。这是因为我们在选择培训数据,也就是这些图片的时候,大部份狼的图片背景中是雪地。于是这个计算机视觉的人工智能算法一下就侦测到了这个非常明显的区别,将这个区别作为他判断是狼还是哈士奇的一个标准,而不是专注于狼和哈士奇面部的一些细微的区别。如果我们事前不知道培训数据里的这样的区别,仅仅基于这个计算机视觉所给我们的结果,我们非常难发现机器视觉是如何犯下这样的错误的。

不同的企业不同的公司,都会遇到类似的问题,那真的可以相信这个人工智能的系统吗?从整个社会的层面上看,大范围的使用人工智能的时候,它是否会造成一个我们都无法想象的结果?

正确的处理这些疑问和质疑的方式是,我们必须将人工智能的可解释性也涉及到这些系统和算法中去。

举个例子:

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存