产业研究
位置: 首页  >  产业研究  >  报告 | 布鲁金斯:为什么政府必须帮助塑造人工智能的未来
报告 | 布鲁金斯:为什么政府必须帮助塑造人工智能的未来
2019-09-29 11:59:35 作者:赛博研究院 


布鲁金斯学会9月发布报告《为什么政府必须帮助塑造人工智能的未来》。报告认为,人工智能会促进公共和私人的权力集中,加强信息不对称,降低信息透明度。私营部门的人工智能开发人员意识到上述问题,并且已经开始制定相关规范以对企业自身活动进行监管。但是,将这些规范应用于人工智能并不容易,并且在运用中会引起不同问题。除此之外,更广泛的问题包括:私营部门的自我监管能走多远?公共部门应该在什么情况下介入?当公共部门介入,相关的道德原则是什么?报告通过三个案例研究——面部识别系统、自动驾驶车辆和致命自主武器来探讨这些问题,说明人工智能的道德挑战以及阐明这方面思考的必要性。



一、面部识别


今天,随着计算机辅助面部识别的发展,这种新能力对于创造它的专家、销售它的企业以及必须决定如何使用和管理它的政府而言,带来深刻的道德挑战。

 

本文认为,对面部识别适用的规范是“对匿名的合理期望”。如果我们以合法的方式开展业务,当局不应该使用面部识别系统来识别和追踪我们——如果没有足够的理由来推翻不应该这样做的假设,而且这个过程应该受到法律的制约。对特定个人的识别应该要求类似搜查令的文件,这类文件只有在背后的原因达到“可能”级别时才能进行授权,仅仅怀疑是不够的。

 

即使技术是完美的,这些问题也是紧迫的,但技术远非完美。最近的研究表明,到目前为止,相较于女性,面部识别技术对男性更有效;相较于有色人种,该技术对浅肤色人更有效。系统性偏见所带来的误报危险性是不容忽视的。

 

这种风险很重要,因为我们大多数人都倾向于对技术创新给予高度重视。有时对技术(比如DNA)的敬重是有道理的,但往往并非如此。作为历史的例证,颅相学曾经被检察官和辩护律师广泛用于刑事审判。在可以证明面部识别系统比人类目击者更准确并且偏见更少之前,该技术在用于法律和其他官方目时需要受到质疑,因为面部识别产生的证据太容易获得人们广泛的信任。


二、自动驾驶车辆


自动驾驶汽车设计者面临各种挑战。首先,由于两辆车或多辆车之间的相互作用很重要,政府或行业联盟必须建立跨车型和跨制造商的协议,以管理尽可能广泛的车辆之间的相互作用。一种可能性是在每辆车辆中建立接收器和发射器系统,该系统即刻对有问题的情况做出响应并允许车辆之间的实时协调。

 

其次,必须对先前提出的道德选择的结果进行编码。这些问题的答案必须是明确的,而不是默认的。汽车制造商本身无权做出这些决定,这些决定必须反映公众的探讨和辩论。

 

第三,由于具体情况很重要,自动驾驶车辆必须能够最大程度地接收和部署相关信息。如果社会普遍认为数量问题或特殊关系会产生道德差异,那么车辆的控制系统必须意识到它们。这可能需要安装传感器甚至面部识别装置作为自动驾驶的元件。

 

最后,自动驾驶汽车的部署将把责任从车主转向制造商。个人不能对其无法诊断的编程缺陷或决策负责。正如Bryant Walker Smith所论证的那样,现有的产品责任法体系将进行调整,以适应自动驾驶汽车将引发的问题。作为自动驾驶车辆引入过程中的部分监管程序,这必须在部署这些车辆之前完成。迫使个别原告上法庭,(推动)制定政府有责任事先制定的标准将是繁重和不公平的。

 

三、自主武器


对部署完全自主致命武器具有四项主要保留意见。第一项是广泛宣称的“机器编程永远无法满足合法自主致命武器所需的基本道德和法律原则的要求”。如果复杂案件中,人类决策(如不少道德理论所认为的那样)是非算法的,那么上述宣称是真的。如果经验和道德上的各因素的权衡发生在规则框架内,但不由规则框架决定,那么进行全面的判断将针对特定案例,不可简化。如果是这样,即使能够从反馈和其他证据中学习的程序也永远无法完全取代人类的决策。

 

不过,对于这些系统的某些批评者来说,最终的问题不是经验问题,而是道德问题。他们认为,从决定中剔除人类本身就是错误的。我们不仅仅是理性的计算器。我们有能力体验快乐和痛苦,理解他人的情感,感受同理心和怜悯——这些是我们人性的特征,如果它们足以满足各种道德要求,我们必须将其带入实际判断中。我们没有理由相信任何人造系统都会分享我们内心生活的这些方面。如果不是这样,将生死决定委托给这样一个系统是一种道德错误。

 

对这种道德论证的反对观点认为,随着自主机器能力提高,我们可能会将越来越多影响生死的功能移交给自主机器,并且我们关于决策的基本概念将相应地发展。正确的道德问题不再是机器是否与人类一样,而是它们是否能够满足适当的行为标准——对于致命的自主武器而言,行为标准是战争法则,而不是一些抽象的道德理论。“在道德上重要的是,”他们总结道:“能够始终以某种方式和特定的表现水平行事。决策中机器和人类的占比,并不是最深刻的道德原则。”

 

反对自主武器的第三个论点是,自主武器通过分化责任来削弱问责制度。如果发生违反战争规则或广泛认同的道德规范的错误,那么谁该负责?是战场上的士兵,选择部署武器的指挥官,进行编程的设计者,还是授权并资助它的立法者?是以上所有人,还是以上都不是?让这链条中的任何单一环节负责似乎都是不公平的。但如果理论上每个人都分担责任,那么任何人都不会在实践中承担责任。

 

反对致命自主武器的最后一个主要论点是,减少人类士兵面临的风险,则削弱了对使用武力的重要抑制。Anderson和Waxman反驳了这一主张,理由是它仅仅将士兵视为对政治领导人施压的手段。如果这种战术失败并且产生后续冲突,那么如果部署了自主武器,士兵本可以幸免于难。

 

尽管有许多道德原因使得部署致命自主武器需要谨慎,但另一方面,对于实际的考虑可能具有决定性作用。正如退休的美国空将Charles Dunlap在最近的布鲁金斯小组讨论中所指出的那样,美国并非在真空中运转。美国有对手,他们能为决策投票。如果他们急于部署这些武器,我们别无选择,只能作出回应。

 

考虑到各方面,可能实现有意义的妥协。赞成安装和使用以色列铁穹防御系统的论据令人信服,主要是因为该系统完全是防御性的。除了罕见的事故之外,它打击的是导弹,而不是人。从道德或军事角度来看,未能发展出可以保护武装部队免受敌人攻击的自主武器是没有意义的。

 

当然,进攻与防守之间的界限并不是那么清楚。对反弹道导弹系统的标准反对意见是,他们可能会鼓励部署反弹道导弹系统的国家相信他们可以采取相对有罪不罚的进攻行动。但是,领导人——特别是在民主国家——将难以解释他们未能采取可行措施保护其武装部队和平民。对深奥的威慑理论的呼吁达不到预想效果。如果朝鲜表现出对美国发动弹道导弹攻击的能力,那么加速开发有效的反导系统是必然的。因为提升保障公众安全是政治领导人的首要职责,不这样做则违背了他们与人民的道德契约。


四、结论


自我监管是人工智能道德指导体系的必要组成部分,但本文讨论的案例研究表明,这是不够的。国防是一项典型的公共职能,部署AI武器的决定必须通过负责任的政治进程来实现。面部识别系统提出的政策问题无法通过私营部门解决。这些系统的哪些用途违反了隐私和匿名规范?他们在刑事审判中的证据地位是什么?无论是私营部门还是公共部门,AI的部署是否构成了不可接受的权力集中?可以想象,自动驾驶汽车以及相关的引导系统制造商可能采用自愿标准。但历史表明,这类协议需要公众支持才能有效。

 

在过去,我们的社会允许新技术在没有充分的道德指导或公共监管的情况下广泛传播。随着大量对社交媒体滥用的揭露,显而易见的是,这种忽视监管的后果绝不是良性的。如果私营和公共部门能够共同合作,每个部门都为人工智能道德意识监管体系做出自己的贡献,我们就有机会避免过去的错误,建立更美好的未来。


本文由赛博研究院出品,转载请注明:本文来源于赛博研究院官网。

更多精彩内容请关注“赛博研究院”公众号。


1566439187274183.jpg

< 上一篇:#
> 下一篇:#