没有一项技术能像人工智能那样引发道德担忧,甚至是恐惧。担忧的不仅仅是个别公民,Facebook、谷歌和斯坦福大学等都投资了人工智能伦理研究中心。去年年底,加拿大和法国联合成立了一个国际小组,讨论如何“负责任的”使用人工智能。
今天,欧盟委员会发布了自己的指导方针,呼吁“值得信赖的人工智能”。
欧盟认为,人工智能应该坚持尊重人类自治、防止伤害、公平和责任的基本伦理原则。该指南包括7项要求,并呼吁特别注意保护儿童和残疾人等弱势群体。他们还表示,公民应该完全控制它们的数据。
欧盟委员会建议在开发或部署人工智能时使用评估列表,但这些指导方针并不意味着会成为政策或监管的依据,也不意味着要干预政策,他们只是提供了一个宽松的框架。
今年夏天,委员会将与相关方合作,确定可能需要额外指导的领域,并确定如何更好的执行和核查。在2020年初,专家组将纳入试点阶段的反馈意见。
随着我们开发出全自动化武器和假新闻生成算法等产品,很可能会有更多的政府对AI带来的伦理问题表明立场。
下面是欧盟指南的七条关键摘要:
人的管理和监督:人工智能系统应受人的基本管理和支持人的基本权利,从而使公平社会得以实现,而不是减少、限制或误导人类自治。
稳健性和安全性:值得信赖的人工智能要求算法足够安全、可靠和稳健性,能够处理人工智能系统在各个周期阶段的错误或不一致。
隐私和数据管理:公民应该对自己的数据有完全的控制权,而与之相关的数据不会被用来伤害他们。
透明度:应确保人工智能系统的可追溯性。
多样性、非歧视性和公平性:人工智能系统应考虑人类的各种能力、技能和需求,并确保其系统的可访问性。
社会和环境福祉:应采用人工智能系统来促进积极的社会变革,增强可持续性和生态责任。
问责制:应建立机制,确保对人工智能系统及其成果负责和问责。