广告
Takashi Takeouchi先生,平口真道;通过添加原始错误率增强AdaBoost。神经计算机2004; 16 (4): 767–787. doi(操作界面):https://doi.org/10.1162/089976604322860695
下载引文文件:
AdaBoost可以通过指数损失函数的顺序最小化得到。它通过根据分类结果对示例进行指数加权来实现学习过程。然而,权重往往调整得太过尖锐,使得AdaBoost受到了非稳健性和过度学习的影响。我们提出了一种新的增强方法,这是对AdaBoost的轻微修改。损失函数由指数损失和朴素误差损失函数的混合定义。因此,该方法在AdaBoost中引入了遗忘效应。讨论了该方法的统计意义,并进行了仿真验证。
Captcha验证错误。请重试。
登录或创建帐户