使用Fisher核解释黑盒预测
拉吉夫·坎纳(Rajiv Khanna)、比恩·金(Been Kim)、乔伊迪普·戈什(Joydep Ghosh)、桑米·科耶霍(Sanmi Koyejo)
第二十二届国际人工智能与统计会议记录,PMLR 89:3382-33902019年。
摘要
机器学习和心理学的研究表明,突出的例子可以帮助人类解释学习模型。为此,我们从训练示例的角度对测试预测的黑箱解释进行了全新的研究。我们的目标是问“哪些训练示例对给定的一组预测最负责”?为了回答这个问题,我们使用Fisher核作为每个数据点的定义特征嵌入,并结合序列贝叶斯求积(SBQ)来有效地选择示例。与之前的工作相比,我们的方法能够以原则性的方式无缝地处理任何大小的测试预测子集。我们从理论上分析了我们的方法,为离散候选原子上的SBQ提供了新的收敛边界。我们的方法恢复了影响函数在可解释性方面的应用,作为一种特殊情况,从这一联系中产生了新的见解。我们还将提出的方法应用于三个用例:清理培训数据、修复标签错误的示例和数据汇总。
引用本文
相关材料