智库报告
位置: 首页  >  智库报告  >  【报告】人工智能准则:美国国防部使用人工智能的伦理建议
【报告】人工智能准则:美国国防部使用人工智能的伦理建议
2019-11-06 12:11:00 作者: 赛博研究院 
关键词:人工智能 伦理 


2019年10月31日,美国联邦政府独立咨询机构“国防创新委员会”(Defense Innovation Board)发布《人工智能准则》报告,就国防部的人工智能项目应如何遵循美国法律和价值观的问题提出了若干建议。


为什么国防部需要人工智能伦理?


人工智能正在改变我们的社会,影响人们的社会互动、商业经营以及军事战争的活动方式。在许多方面,人工智能还不成熟。在全球范围内,公共和私营部门、学术界、民间社会都对人工智能展开了激烈讨论,国家安全就是其中重要的一个方面。在此背景下,讨论军事语境下的人工智能规范及开发利用非常具有必要性。



我们(代指美国)的敌人和竞争对手已经意识到人工智能的颠覆性意义,并且开始加大投入,利用人工智能推动其军队的现代化。俄罗斯在人工智能应用领域投入巨资,测试人工智能系统在作战场景下的性能。国防部联合人工智能中心主管Jack Shanahan中将指出,“我不想看到在未来我们的对手已经用人工智能进行全副武装,而我们却没有。我们必须在部署使用人工智能方面争分夺秒”。


美国正处在与极权国家之间的科技竞争之中,并且这些国家所要建立的人工智能应用系统,是与民主国家的法律、伦理、道德规范相违背的。因此,我们在此确立一套反映民主国家价值观念的人工智能准则。


国防部人工智能伦理准则


国防部现行的价值观框架和法律架构主要包括:美国宪法、美国法典第10卷及其他可适用的法律,此外还包括战争法规则和国际条约。这些都构成国防部人工智能伦理准则的基础。我们重申,国防部必须在现有的上述价值观框架和法律架构下使用人工智能。在此基础上,我们提出以下人工智能伦理准则:



(1)负责任。在人工智能系统中,人类应当保留适当程度的判断能力,并且对国防部人工智能系统的开发、部署、使用和结果承担责任。


(2)公平公正。国防部应当通过采取措施,避免作战或非作战用途的人工智能系统在开发和部署阶段出现偏见,防止其对人们造成伤害。


(3)可溯源。国防部应当通过透明度和可审计的方法论、数据来源、设计流程和文档等,确保技术专家能正确理解其人工智能系统的技术、研发进程和运作方法。


(4)可信赖。国防部的人工智能系统应当易于理解、充分界定使用领域、安全。应当确保在使用领域的整个生命周期都测试其鲁棒性。


(5)可控。国防部的人工智能系统应当为满足其预设的功能而进行开发、施工,并具备检测和防止意外伤害、干扰的能力,在冲突升级或其他情况下能自动下线或停止工作。


人工智能伦理准则的实施



国防部创新委员会提出一系列行动建议,旨在实现上述人工智能伦理准则。


1、通过国防部官方渠道,将上述准则正式化。“联合人工智能中心”(JAIC)应当向国防部部长提出建议,通过备忘录、政策发布的形式,将这些人工智能伦理准则正式确立下来。


2、建立国防部范围内的人工智能指导委员会。国防部副部长应当建立一个高级别的委员会,向其报告工作,确保国防部人工智能战略的监督和执行,使国防部的人工智能项目符合人工智能伦理准则。支持实施人工智能准则,要求国防部将这些准则融入到决策的方方面面。


3、深耕人工智能工程领域。国防部科研部门应当为促进人工智能工程成熟度提供支持,确立施工实践典型。为年轻的科研人员提供更多机会,以适应国防部在安全和负责任方面的优良传统。


4、加强国防部培训和劳动力养成计划。每个部门、作战指挥部、办公室下属机构等的活动应当建立教育培训计划,提供人工智能相关的技能和知识。多样化的人工智能培训计划应当广泛可用,覆盖初级人工智能工程师到高级领导人。最重要的是,初级工作人员、机构成员等都应在在其职业生涯早期获得人工智能的教育培训,国防部应当在其职业生涯期间通过正式的军事教育培训为他们提供继续学习的机会。


5、加大对人工智能前沿安全领域研究的投入。国防部政策研究相关的办公室应当加大投入,以理解人工智能时代竞争和威慑行动的新方法,尤其是与网络安全、量子计算、信息行动、生物科技等结合起来。当前新的焦点领域是人工智能竞争和冲突升级的动力学机制、避免危险扩散、战略稳定影响、威慑选项等。



6、加大研究投入,促进再现性。国防部科研部门应当加大科研投入,提升人工智能系统的可再生产力。人工智能业界面临的挑战,对于国防部而言是一个机遇。国防部应加强理解人工智能模型是如何工作的。这有助于解决所谓的人工智能“黑箱”问题。


7、界定可信赖度的标准。国防部科研部门应当探索如何制定适当的人工智能系统效能以及人力效能的衡量标准。


8、加强人工智能测试和评估技术。在研发测试与评估办公室领导下,国防部应当使用或者提升现有的国防测试、评估、验证、认证流程,在必要时,为人工智能系统建立新的基础设施。这些流程应当遵循“软件驱动”的指导方针,为国防创新委员会的软件采购和实践研究课题提供详细资料。


9、开展风险管理的方法论。联合人工智能中心应当建立一种分类学理论,基于伦理、安全、法律风险考量而区分国防部的人工智能应用。这种分类学理论应当促进快速采购成熟且低风险的人工智能应用,强调对不成熟的产品进行风险预防和仔细审查。


10、确保适当地实施人工智能伦理准则。联合人工智能中心应当评估这些伦理准则及相关指令的实施,作为《2019年国防授权法案》所要求的管控和监督的一部分。


11、扩大研究,理解如何实施人工智能伦理准则。国防部科研部门应当联合其他单位,制定一个关于人工智能安全、鲁棒性的《大学跨学科研究计划》。该计划应当作为该领域学术研究的起点。


12、召开人工智能安全和鲁棒性的年度大会。“联合人工智能中心”(JAIC)应当召开一个年度大会,检查人工智能安全、鲁棒性问题中的伦理事项,听取内部和外部多方面的声音。



结论



这些准则的提出,既不是想终结人工智能的激烈争议,也不是要限制国防部的人工智能能力。相反,我们希望这些准则能够使人工智能系统更好地服务于国防部的战争威慑和保卫国家的任务。此外,这些准则符合现有的政策框架、战争法规则、国内法等,并且传达了包含民主价值观的伦理规范。国防创新委员会提出这些人工智能伦理准则,供国防部考虑,也建议国防部将这些伦理准则付诸实施。最后,伦理不仅仅是一种观念集合,它更是一套活动和过程。


我们发现国防部已经成为一个伦理组织,伦理深度融入了国防部发布的所有单行文件,而且国防部的每个人都已经在生活和工作、战斗和死亡等方面践行这些伦理,这些伦理是他们内心深处的信仰。这些价值观念必须经受公开讨论和批评性思考,以保持相对真理性。


编译 | 黄紫斐


本文由赛博研究院出品,转载请注明:本文来源于赛博研究院官网。

更多精彩内容请关注“赛博研究院”公众号。


网站二维码底图.jpg