产业研究
位置: 首页  >  产业研究  >  【资讯】NIST提出“可解释的AI”四项原则
【资讯】NIST提出“可解释的AI”四项原则
2020-08-19 14:00:00 作者:赛博研究院 
关键词: 

Meritalk网站8月18日消息,美国国家标准技术研究院(NIST)提出了四项原则,以确定AI所做决定的“可解释”程度。“可解释人工智能的四项原则”(NISTIR 8312草案)是NIST基础研究的一部分,旨在通过理解AI的理论能力和局限性以及通过提高AI使用的准确性(accuracy)、可靠性(reliability)、安全性(security)、鲁棒性(robustness)和可解释性(explainability)来建立对AI系统的信任。


可解释AI的四项原则是:

●  人工智能系统为所有输出提供相关证据或原因;

●  人工智能系统应向个体用户提供有意义且易于理解的解释;

●  所提供的解释应正确反映AI系统生成输出结果的过程;

●  AI系统“仅在预设或系统对其输出有足够信心的情况下运行。”

 

NIST电子工程师乔纳森·菲利普斯(Jonathon Phillips)表示,人工智能正在参与高风险的决策,没有人希望在不理解原因的情况下让机器做出决策。但是,工程师所满意的解释可能不适用于具有不同背景的人。因此,希望获取多元观点和意见来完善草案。随着可解释AI的发展,人们可能会发现AI系统的某些部分比人类更能满足社会的期望和目标。理解人工智能系统以及人类行为的可解释性,为寻求结合两者优势的方法打开了大门。

 

 

编译 | 贺佳瀛/赛博研究院研究员

 

本文由赛博研究院出品,转载请注明:本文来源于赛博研究院公众号。

更多精彩内容请关注“赛博研究院”公众号。


WPS图片-修改尺寸(1).jpg


< 上一篇:#
> 下一篇:#