人在回路中的可解释性优先

的一部分神经信息处理系统进展31(NeurIPS 2018)

Biptex公司 元数据 纸类 评论 补充的

作者

Isaac Lage、Andrew Ross、Samuel J.Gershman、Been Kim、Finale Doshi-Velez

摘要

我们经常希望我们的模型既能解释又能准确。以前关于优化可解释性模型的工作依赖于易于量化的可解释性代理,例如稀疏性或所需的操作数。在这项工作中,我们通过在优化循环中直接包括人来优化可解释性。我们开发了一种算法,可以最大限度地减少用户研究的次数,以找到既具有预测性又具有解释性的模型,并在多个数据集上演示我们的方法。我们的受试者结果显示,在不同数据集上,对可解释性的代理概念呈现出不同的趋势,这表明在不同的任务中,首选不同的代理。