计算机工程与应用››2023,第59卷››发行(14): 1-14.内政部:10.3778/j.issn.1002-8331.2208-0322

• 热点与综述 • 上一篇   下一篇

可解释人工智能研究综述

赵延玉,赵晓永,王磊,王宁宁  

  1. 1.北京信息科技大学 信息系统研究所,北京 100129
    2北京信息科技大学 北京材料基因工程高精尖创新中心,北京 100129
  • 出版日期:2023-07-15 发布日期:2023-07-15

可解释人工智能综述

赵燕玉、赵晓勇、王磊、王宁宁  

  1. 1.1北京信息科技大学信息系统研究所,北京100129
    2.北京信息科技大学材料基因组工程先进创新中心,北京100129
  • 在线:2023-07-15 出版:2023-07-15

摘要:随着机器学习和深度学习的发展,人工智能技术已经逐渐应用在各个领域。然而采用人工智能的最大缺陷之一就是它无法解释预测的依据。模型的黑盒性质使得在医疗、金融和自动驾驶等关键任务应用场景中人类还无法真正信任模型,从而限制了这些领域中人工智能的落地应用。推动可解释人工智能(可解释人工智能,XAI)的发展成为实现关键任务应用落地的重要问题。目前,国内外相关领域仍缺少有关可解释人工智能的研究综述,也缺乏对因果解释方法的关注以及对可解释性方法评估的研究。从解释方法的特点出发,将主要可解释性方法分为三类:独立于模型的方法、依赖于模型的方法和因果解释方法,分别进行总结分析,对解释方法的评估进行总结,列举出可解释人工智能的应用,讨论当前可解释性存在的问题并进行展望。

关键词: 可解释性, 人工智能, 机器学习, 深度学习, 评估

摘要:随着机器学习和深度学习的发展,人工智能技术已逐渐应用于各个领域。然而,采用人工智能的最大缺点之一是它无法解释预测的基础。模型的黑盒特性使人类不可能在医疗、金融和自动驾驶等关键任务应用场景中真正信任它们,从而限制了人工智能在这些领域的扎根应用。推动可解释人工智能(XAI)的发展已成为实现地面关键任务应用的一个重要问题。目前,国内外还缺乏对XAI相关领域的研究综述,也缺乏对因果解释方法和可解释方法评价的研究。因此,本研究首先从解释方法的特点出发,从解释类型的角度将主要的解释方法分为三类:模型依赖方法、模型依赖方法和因果解释方法,并分别进行总结和分析,然后总结了解释方法的评价,列举了可解释人工智能的应用,最后讨论了当前可解释性的问题并提出了展望。

关键词: 可解释性, 人工智能, 机器学习, 深度学习, 评价