梯度推进优化
对梯度增强的两个广泛版本进行了深入分析,并介绍了从函数优化角度研究这些算法的一般框架。 提前停止推进:收敛性和一致性
本文研究了在基函数族的线性跨度上进行提前停止boosting的数值收敛性、一致性和统计收敛速度,并给出了一个严格的证明:对于线性可分问题,当让AdaBoost运行到收敛点时,AdaBoostic成为了L1-边值最大化器。 贪婪函数近似:梯度增强机。
针对基于任何拟合准则的加性展开,提出了一种通用的梯度下降推进范式,并针对回归的最小二乘、最小绝对偏差和Huber-M损失函数以及分类的多类逻辑似然给出了具体算法。 极随机树
一种用于监督分类和回归问题的新的基于树的集成方法,该方法包括在分裂树节点的同时对属性和切点选择进行强随机化,并建立完全随机化的树,其结构与学习样本的输出值无关。 XGBoost:一个可扩展的树增强系统
本文针对稀疏数据提出了一种新的稀疏感知算法,针对近似树学习提出了加权分位数草图,并对缓存访问模式、数据压缩和分片进行了深入研究,以构建一个可扩展的树增强系统XGBoost。 增强系综的人口理论
证明了当终端节点数T大于D时,D维L2(P)空间中最简单的树是完备的,AdaBoost算法给出了一个收敛于Bayes风险的集合。