开放式访问
2022 可解释机器学习:基本原理和十大挑战
辛西娅·鲁丁,陈超凡,Zhi Chen先生,黄海洋,莱西娅·塞梅诺娃,钟楚迪
统计师。Surv公司。 16: 1-85 (2022). 内政部:10.1214/21-SS133

摘要

机器学习(ML)中的可解释性对于高风险决策和故障排除至关重要。在这项工作中,我们为可解释的ML提供了基本原则,并消除了淡化这一关键主题重要性的常见误解。我们还确定了可解释机器学习中的10个技术挑战领域,并提供了每个问题的历史和背景。其中一些问题是经典的重要问题,还有一些是最近几年出现的问题。这些问题是:(1)优化决策树等稀疏逻辑模型;(2) 评分系统的优化;(3) 将约束置于广义可加模型中,以鼓励稀疏性和更好的解释性;(4) 现代案例推理,包括神经网络和因果推理匹配;(5) 神经网络的完全监督解缠;(6) 神经网络的完全或部分无监督解缠结;(7) 数据可视化中的降维方法;(8) 可以结合物理和其他生成或因果约束的机器学习模型;(9) 好模型的“Rashomon集”的刻画;和(10)可解释强化学习。这项调查适合作为对可解释机器学习感兴趣的统计学家和计算机科学家的起点。

资金筹措表

部分支持由DOE DE-SC0021358、NSF DGE-2022040、NSF CCF-1934964和NIDA DA054994-01拨款提供。

鸣谢

我们感谢莱昂纳多·卢西奥·卡斯特德(Leonardo Lucio Custode)指出了一些关于挑战10的有用参考。感谢David Page为早期可解释的ML提供了有用的参考。感谢匿名评论员提出了非常有用的评论。

引用

下载引文

辛西娅·鲁丁。 陈超凡。 陈志。 黄海阳。 莱西娅·塞梅诺娃。 钟楚迪。 “可解释机器学习:基本原则和10大挑战。” 统计师。Surv公司。 16 1 - 85, 2022 https://doi.org/10.1214/21-SS133

问询处

收到日期:2021年3月1日;发布日期:2022年
欧几里德项目首次推出:2022年1月10日

数学科学网:MR4361744型
zbMATH公司:07471610
数字对象标识符:10.1214/21-SS133

学科:
主要用户:68T01型
次要:62-02

关键词:可解释机器学习,可解释的机器学习

返回页首