技术的发展往往是双刃剑,人工智能的商业化落地也需要遵循一定的原则。6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》(以下简称《治理原则》),提出了人工智能治理的框架和行动指南。
《中国新一代人工智能发展报告2019》显示,我国人工智能论文发表量全球领先,企业数量等多项指标居全球第二位。在今年两会期间,就有不少科技企业的负责人提议需要加快人工智能相关的法律法规政策的制定。
为推动人工智能全球治理,我国成立了国家新一代人工智能治理专业委员会,负责统筹推进人工智能治理的相关工作。
在最新的《治理原则》中,最关键的主题便是“发展负责任的人工智能”,具体包括四个重点:更好协调人工智能发展与治理的关系,实现“双轮驱动”。确保人工智能安全可控可靠,规避风险隐患。推动经济、社会及生态可持续发展,促进包容共享。共建人类命运共同体,提倡开放协作。
《治理原则》指出,在数据获取、算法设计、技术开发、产品研发和应用过程中应该消除偏见和歧视。加强人工智能教育及科普,促进共享发展,避免数据与平台垄断。在安全可控方面,人工智能系统要逐步实现可审核、可监督、可追溯、可信赖,提高鲁棒性及抗干扰性。
同时,《治理原则》也提到了数据隐私方面的内容,在个人信息的收集、存储、处理、使用等各环节应设置边界,建立规范。完善个人数据授权撤销机制。
国家新一代人工智能治理专业委员会主任薛澜表示,“我们发布的《治理原则》,也为今后的立法工作提供了重要基础。人工智能发展非常快,而立法的周期较长,因此也很难只用法律框架来支撑人工智能的发展,这就需要相关的原则准则、行业规范,包括从业者的自律,来协同推进其健康发展。”