论决策树中解释冗余的处理

主要文章内容

亚辛·伊萨
阿列克谢·伊格纳提耶夫
若昂·马奎斯·西尔瓦

摘要




决策树(DT)是机器学习(ML)模型可解释性理想的缩影。决策树的可解释性通过所谓的内在可解释性激发了可解释性方法,这是最近将可解释ML模型应用于高风险应用的提议的核心。DT可解释性的信念是合理的,因为DT预测的解释通常被认为是简洁的。实际上,在DT的情况下,解释与DT路径相对应。由于决策树在理想情况下是浅的,因此路径包含的特征远远少于特征总数,因此DT中的解释应该简洁,因此可以解释。本文提供了理论和实验论据,证明只要决策树的可解释性等同于解释的简洁性,那么决策树就不应该被认为是可解释的。本文引入了逻辑严格的路径解释和路径解释冗余,并证明了存在一些函数,决策树必须显示解释冗余比实际路径解释任意大的路径。本文还证明了只有非常有限的一类函数才能用没有解释冗余的DT表示。此外,本文还包括实验结果,证明路径解释冗余在决策树中普遍存在,包括使用不同树学习算法获得的路径解释冗余,但也存在于广泛的公共决策树中。本文还提出了消除路径解释冗余的多项式时间算法,这些冗余在实际中需要的计算时间可以忽略不计。因此,这些算法可以间接地获得决策树的不可约且简洁的解释。此外,本文还包含了与对偶性和解释枚举相关的新结果,这些结果基于使用SAT解算器作为证词产生的NP有机体。




文章详细信息

章节
文章