开放式访问
2005年8月 提前停止推进:收敛性和一致性
张彤(音译),余斌(Bin Yu)
安。统计师。 33(4): 1538-1579 (2005年8月)。 DOI:10.1214/009053605000000255

摘要

Boosting是机器学习分类和回归方面最重要的进步之一。在其原始且计算灵活的版本中,boosting试图以贪婪的方式在经验上最小化损失函数。得到的估计器采用加性函数形式,并根据之前的迭代将基本估计器(或学习器)应用于更新的样本,从而迭代构建。基于CV或测试集,采用了一种不寻常的正则化技术,即提前停止。

本文研究了在基函数族的线性跨度上进行提前停止boosting的数值收敛性、一致性和统计收敛速度。对于一般损失函数,我们证明了boosting贪婪优化在线性跨度上收敛到损失函数的无穷小。利用数值收敛结果,我们找到了基于i.i.d.样本的boosting一致的早期停止策略,并获得了boosting估计量的收敛速度的界。此外,还进行了模拟研究,以说明我们的理论结果的相关性,从而为增压的实际方面提供见解。

作为一个副产品,这些结果还揭示了限制贪婪搜索步长的重要性,正如弗里德曼和其他人在实践中所知。此外,我们的结果给出了一个严格的证明,对于线性可分问题,AdaBoost与ɛ0步长变为L(左)1-边际最大化时,左运行收敛。

引用

下载引文

张彤。 余斌。 “提前停止推动:融合和一致性。” 安。统计师。 33 (4) 1538 - 1579, 2005年8月。 https://doi.org/10.1214/009053605000000255

问询处

发布日期:2005年8月
首次出现在欧几里得项目中:2005年8月5日

zbMATH公司:1078.62038
数学科学网:MR2166555型
数字对象标识符:10.1214/009053605000000255

学科:
主要用户:62G05型,62G08号

关键词:增压,一致性,提前停车,贪婪优化,匹配追踪

版权所有©2005数学统计研究所

第33卷•第4期•2005年8月
返回页首