现在各行各业都在向AI靠拢,但若论在哪个行业AI发展的会更快、更具有潜力,非安防莫属。以智能监控系统为代表的AI安防产品已经覆盖到众多应用领域,AI技术的应用让安防行业尝到了甜头。如今,无论是公共安全领域、智能交通、智慧城市、智能楼宇、工厂园区,乃至物流运输、电力巡检等都少不了AI安防产品的身影。
不过,AI技术被安防行业采纳不仅是为了更有效地完成当前业务,这是一个多方面的过程,更重要的是,AI还需要不断重新评估这些实践结果,以适应客户不断变化的需求。另外,AI技术固然能在扩大监控规模的前提下能够有效收集情报并充分分析,及时阻止安全事件发生,也有可能产生一些伦理道德问题。
目前,从很多案例可以看出,有些AI做判断时存在歧视。例如,美国AI会更偏向中年白人,而预测违法时往往会把黑人和黑人集中区域当做重点预测对象。我国也有根据一个人脸部特征与行为举止来判断此人是否具有社会威胁性并提醒警方先发制人的AI系统。人类的偏见被机器学习并吸收,这是AI发展所面临的一种道德危机。这些表现无疑会使AI受到大量道德谴责。
此外,个人隐私与数据保护、AI系统对外部攻击的防御能力、以及算法透明度等问题也越来越成为AI安防亟需突破的重点问题。
毫无疑问,AI的确需要监管,但现在我们还不清楚如何对其进行监管。欧盟(EU)近日发布了一套指南,指导企业和政府在开发人工智能时遵循道德准则,旨在解决AI带来的棘手问题。该指南认为,未来AI系统应该满足下列7项要求:人道机构的监督、技术稳健性和安全性、隐私和数据治理、算法透明度、多元化非歧视和公平性、环境和社会福利以及完善的问责制。这份清单为减轻AI的潜在危害提供了一个实用且具前瞻性的视角。
数字权利组织Access Now的政策经理范妮·希德维吉认为:欧盟不应止步于道德准则,因为道德准则只有在法律基础上才能发挥更大作用。但是由道德走向法律,必须非常审慎。在此之前,还需要AI技术进一步发展并更广泛且深入地应用。
结语:对影响日益扩大乃至渗透人们生活各个方面的AI安防而言,为了使系统发挥应有的作用,加强监视和构建伦理之间必须有一个可以被社会广泛接受的平衡。如果在采用人工智能技术的过程中包含了日后数据收集训练的方向,那么可能会减少假警报的风险,也可以在AI驱动的决策中充分体现其公平性,尽量减少其可能对社会产生的负面影响。