摘要
Boosting是机器学习分类和回归方面最重要的进步之一。在其原始且计算灵活的版本中,boosting试图以贪婪的方式在经验上最小化损失函数。得到的估计器采用加性函数形式,并根据之前的迭代将基本估计器(或学习器)应用于更新的样本,从而迭代构建。基于CV或测试集,采用了一种不寻常的正则化技术,即提前停止。
本文研究了在基函数族的线性跨度上进行提前停止boosting的数值收敛性、一致性和统计收敛速度。对于一般损失函数,我们证明了boosting贪婪优化在线性跨度上收敛到损失函数的无穷小。利用数值收敛结果,我们找到了基于i.i.d.样本的boosting一致的早期停止策略,并获得了boosting估计量的收敛速度的界。此外,还进行了模拟研究,以说明我们的理论结果的相关性,从而为增压的实际方面提供见解。
作为一个副产品,这些结果还揭示了限制贪婪搜索步长的重要性,正如弗里德曼和其他人在实践中所知。此外,我们的结果给出了一个严格的证明,对于线性可分问题,AdaBoost与ɛ→0步长变为L(左)1-边际最大化时,左运行收敛。
引用
下载引文
张彤。
余斌。
“提前停止推动:融合和一致性。”
安。统计师。
33
(4)
1538 - 1579,
2005年8月。
https://doi.org/10.1214/009053605000000255
问询处
发布日期:2005年8月
首次出现在欧几里得项目中:2005年8月5日
数字对象标识符:10.1214/009053605000000255
学科:
主要用户:62G05型,62G08号
关键词:增压,一致性,提前停车,贪婪优化,匹配追踪
版权所有©2005数学统计研究所