窥探黑盒子:可解释人工智能(XAI)调查

@文章{Adadi2018PeekingIT,title={窥探黑盒子:可解释人工智能(XAI)的调查},作者={Amina Adadi和Mohammed Berrada},日志={IEEE访问},年份={2018年},体积={6},页码={52138-52160},网址={https://api.semanticscholar.org/CorpusID:52965836}}
这项调查为感兴趣的研究人员和从业者提供了一个切入点,让他们了解与XAI相关的年轻且快速增长的研究主体的关键方面,并回顾与该主题相关的现有方法,讨论其领域的趋势,提出主要的研究轨迹。

本文图表

可解释人工智能(XAI):工程视角

深度学习(DL)算法的显著进步激发了人们在几乎每个领域使用人工智能(AI)技术的热情;然而,这些的不透明性

让AI在全球南方变得可解释:一项系统性审查

本文对全球南方XAI研究进行了首次系统回顾,确定了来自15个不同地点的16篇论文,这些论文针对广泛的应用领域,并强调了在全球南方对XAI采取以人为本的方法的必要性。

可解释人工智能:综述

本综述旨在通过分析和回顾各种XAI方法,通过发现与XAI相关的快速增长的研究主体的关键观点来弥合差距,这些方法分为(i)建模前可解释性,(ii)可解释模型,和(iii)建模后可解释性。

窥视黑匣子外:AI解释性需求超越解释性

有人认为,人工智能系统的需求工程师需要考虑超越可解释性的可解释性需求,并提出了医学领域的一个假设场景,该场景展示了XAI研究人员通常不考虑的各种不同的可解释需求。

解锁黑箱:人工智能系统中信任和透明的可解释人工智能(XAI)

概念综述探讨了XAI在促进人工智能系统信任和透明度方面的重要性,分析了现有的XAI文献,确定了模式和差距,并提出了一个连贯的概念框架。

可解释的人工智能方法:综述

这项工作通过相互的案例研究/任务展示了流行的XAI方法,从多个角度分析了竞争优势,对量化可解释性提供了有意义的见解,并推荐了使用XAI作为媒介实现负责任或以人为本的AI的途径。

可信和可解释人工智能(XAI)综述

考虑到人工智能是一个对其底层结构缺乏深入了解的黑匣子,本文对如何构建值得信赖和可解释的人工智能的最新技术进行了全面回顾。

破译颠覆性技术:可解释人工智能作为游戏改变者的回顾与研究议程

对122篇文章进行了基于框架的审查,以纳入使用TCM-ADO框架的大多数XAI文献,并试图强调文献中的重大差距,并为进一步研究提供具体建议。
...

基于局部规则的黑箱决策系统解释

本文提出了一种不可知论方法LORE,它能够为黑箱结果解释提供可解释且可信的解释,并表明LORE在解释质量和模拟黑箱的准确性方面都优于现有方法和基线。

道德、风险和政策人工通用智能项目调查

本文首次从道德、风险和政策方面对积极的AGI研发项目进行了调查,为AGIR&D研究提供了实证基础,并为政策和其他行动提供了指南。

不打开黑匣子的反事实解释:自动决策和GDPR

建议数据控制员提供一种特殊类型的解释,即无条件反事实解释,以支持这三个目标,这三个目的描述了为获得理想结果或达到尽可能接近的世界所能对世界进行的最小改变,而无需解释系统的内部逻辑。

可解释的人工智能:提防囚犯管理庇护或:我如何学会停止担忧并热爱社会和行为科学

从文献的梳理来看,社会科学和行为科学有相当大的空间将更多的结果注入可解释的人工智能,并介绍了这些领域与可解释的人工智能相关的一些关键结果。

可解释人工智能:综述

综述了XAI在监督学习中的最新发展,讨论了XAI与人工一般智能的联系,并对进一步的研究方向提出了建议。

黑箱模型解释方法综述

对文献中涉及的主要问题进行分类,包括解释的概念和黑盒系统的类型,以帮助研究人员发现对自己的工作更有用的建议。

解释性解释:一种评估机器学习可解释性的方法

为了创建最佳实践并确定开放性挑战,提供了可解释性的定义,以及如何将其用于现有文献的分类。

设计师的可解释人工智能:以人为中心的混合创新视角

这篇愿景论文提出了一个新的研究领域,专门针对游戏设计者,即eXplainable AI for Designers(XAID),并通过三个用例说明了最初的XAID框架,这需要了解AI技术的固有属性和用户需求。

MAGIX:模型不确定性全球可解释解释

该方法首先提取实例级重要的条件,然后通过具有适当适应度函数的遗传算法进化规则,该适应度函数表示模式,然后是用于决策的模型,有助于理解其行为。

我们需要什么来为医学领域构建可解释的人工智能系统?

有人认为,对可解释AI的研究通常有助于促进AI/ML在医学领域的实施,特别有助于提高透明度和信任度。
...