变分助推软树
Tristan Cinquin、Tammo Rukat、Philipp Schmidt、Martin Wistuba、Artur Bekasov
第26届国际人工智能与统计会议论文集,PMLR 206:5787-58012023年。
摘要
基于决策树的梯度提升机(GBM)在使用表格数据的回归和分类任务中始终显示出最先进的结果,通常优于深层神经网络。然而,这些模型没有提供校准良好的预测不确定性,这妨碍了它们在高风险应用中用于决策。众所周知,贝叶斯处理可以改进预测不确定性校准,但以前提出的贝叶斯GBM方法要么计算成本高昂,要么采用粗略近似。变分推理通常用于实现贝叶斯神经网络,但很难应用于GBM,因为用作弱学习器的决策树是不可微的。在本文中,我们建议使用带有软决策树的变分推理来实现贝叶斯GBM,这是Irsoy等人引入的标准决策树的一种完全可微的替代方案。我们的实验表明,变分软树和变分软GBM提供了有用的不确定性估计,同时保持良好的预测性能。与最先进的贝叶斯GBM相比,该模型在7/10表回归数据集中的测试可能性更高,在5/10数据集中改进了分布外检测。
引用本文
相关材料