AdaBoost可以通过指数损失函数的顺序最小化得到。它通过根据分类结果对示例进行指数加权来实现学习过程。然而,权重往往调整得太过尖锐,使得AdaBoost受到了非稳健性和过度学习的影响。我们提出了一种新的增强方法,这是对AdaBoost的轻微修改。损失函数由指数损失和朴素误差损失函数的混合定义。因此,该方法在AdaBoost中引入了遗忘效应。讨论了该方法的统计意义,并进行了仿真验证。

此内容仅以PDF格式提供。
您当前无权访问此内容。