欧盟委员会发布《可信赖的人工智能道德准则草案》

来源:数据观 作者:张雅妮 徐曼

12月18日,欧盟委员会公布了《可信赖的人工智能道德准则草案》(以下简称《准则草案》)。该《准则草案》构建了“可信赖人工智能”框架,为部署、开发和使用人工智能的企业、政府、研究机构、社会组织和个人提供了如何实现符合人类道德准则的“可信赖人工智能”的指南,并将建立一种机制,使以上各方在自愿的基础上正式认可该准则并予以践行。欧盟委员会将编制人工智能道德准则作为今年工作重点,组建了人工智能高级专家小组负责准则的制定工作,专家小组由52名来自于谷歌、IBM、贝尔实验室、SAP、博世等领军企业,以及牛津大学、伯明翰大学等知名高校和若干社会组织的权威专家组成。从公布之日起至2019年1月18日,欧盟委员会对外公开征求关于该《准则草案》的意见。计划在明年3月,人工智能高级专家小组将向欧盟委员会提交准则最终版。

 

“可信赖人工智能”两大核心要素

《准则草案》提出了实现“可信赖人工智能”的两个必不可缺的核心要素。

要素一:道德目的

AI的开发、部署和使用应以人为中心,尊重人类的尊严、平等和自由等基本权利,并遵守以下五个核心原则和相关价值观:

一是对公民和社会有益,AI应以增进个人和组织的福祉为宗旨。

二是不伤害人类。包括不能对公民产生生理和精神上的伤害,避免造成经济损失和不良社会影响,例如,避免算法或数据带来的偏见和歧视。

三是保证人类自主权。即人们应具有充分的自主决策权利,包括有权利选择是否接受AI提供的服务,以及有权利随时退出与AI的交互等。

四是AI的开发、使用和管理必须公平。例如,不同的群体应具有同等机会去享受AI产品和服务,AI对弱势群体应给予公正对待等。

五是可解释性原则。AI的技术开发和决策原理都应具有一定透明度,这是确保公民对AI产生信任的关键,个人和组织可要求开发者提供AI用于预测或决策时输入的参数和指令,以了解AI决策依据。

要素二:技术可靠

在拥有良好“道德目的”的同时,AI还应在技术方面稳健可靠,因为缺乏技术上的掌控也会造成无意的伤害。此外,AI应始终符合并遵守“道德目的”,这意味着“道德目的”中包含的每条需求细则的贯彻和实施,应贯穿于AI的全寿命周期,包括了分析、设计、开发和使用等各个环节。可通过同时使用测试和验证等技术类方法,以及标准和规范等非技术类方法来实现这些需求细则,这些技术类方法同样应是可靠的。

“可信赖人工智能”的框架

围绕上述两大核心要素,《准则草案》构建了“可信赖人工智能”的整体框架,具体如下图所示:

 

整个框架包含了以下主要步骤:

步骤一:确定“可信赖人工智能”的需求细则

依据AI必须符合和遵守的“道德目的”,可制定更为详细具体的需求细则,并将这些需求全部嵌入到AI系统和应用程序中。《准则草案》列举了十条需求细则,具体内容见下图:

 

步骤二:“可信赖人工智能”需求细则的实施

在确定了详细具体的需求细则之后,将在AI系统的全寿命周期内(包括分析、设计、开发和使用等阶段),使用规定AI行为边界、测试和验证、记录AI决策过程等技术类方法,以及制定标准、组建AI道德问题小组、开展道德培训等非技术方法,来满足“可信赖人工智能”的需求细则。重要的是,对是否满足需求和技术是否可靠的评估应反复迭代进行。

步骤三:对“可信赖人工智能”的评估

针对“可信赖人工智能”的每条需求细则,列出评估和验证清单,确保对每条需求细则予以了落实。例如,针对“数据治理”这条需求细则,建立以下评估和验证清单:对数据的治理是否恰当?遵循什么流程和程序来确保恰当的数据治理?是否建立了监督机制?最终由谁负责?哪些数据治理法规适用于该人工智能系统?

小结

近年来,飞速发展的人工智能技术正在深刻改变着人类经济社会,显著提升了生产效率,给人们生活带来前所未有的便捷,但同时也引发了个人隐私侵犯、算法歧视和公众安全威胁等日益严峻的道德伦理问题。为增强公众对人工智能技术的信任,为人工智能的长远发展营造有利环境,欧盟委员会组织编制了该《准则草案》,其目标是创造一种“欧洲制造的值得信赖的人工智能”的文化,使欧洲成为一个全球领先的人工智能创新者。按照欧盟委员会的工作计划,2019年年中,编制《准则草案》的人工智能高级专家小组将形成另一份名为《人工智能政策和投资建议》的重要文件,进而进一步完善相关政策体系。如何引导人工智能的发展趋利避害、造福人类已成为人类共同面临的严肃问题,欧盟“以人为中心”的核心理念对于我国开展人工智能法律法规、伦理规范和政策体系的顶层设计具有参考意义。

原文链接:http://www.cbdio.com/BigData/2018-12/27/content_5967838.htm