跳到主页内容
美国国旗

美国政府的官方网站

点政府

gov意味着它是官方的。
联邦政府网站通常以.gov或.mil结尾。之前分享敏感信息,确保你在联邦政府政府网站。

Https系统

网站是安全的。
这个https(https)://确保您连接到官方网站,并且您提供的任何信息都是加密的并安全传输。

访问密钥 NCBI主页 MyNCBI主页 主要内容 主导航
.2004年4月;16(4):767-87.
doi:10.1162/08997660432860695。

通过添加原始错误率增强AdaBoost

附属公司

通过添加原始错误率增强AdaBoost

Takashi Takeouchi先生等。 神经计算. 2004年4月.

摘要

AdaBoost可以通过指数损失函数的顺序最小化得到。它通过根据分类结果对示例进行指数加权来实现学习过程。然而,权重往往调整得太过尖锐,使得AdaBoost受到了非稳健性和过度学习的影响。我们提出了一种新的增压方法,这是对AdaBoost的轻微修改。损失函数由指数损失和朴素误差损失函数的混合定义。因此,该方法在AdaBoost中引入了遗忘效应。讨论了该方法的统计意义,并进行了仿真验证。

PubMed免责声明

类似文章

  • AdaBoost的实验。RT是一种改进的回归增强方案。
    Shrestha DL,Solomatine DP。 Shrestha DL等人。 神经计算。2006年7月;18(7):1678-710. doi:10.1162/neco.2006.18.7.1678。 神经计算。2006 PMID:16764518
  • FloatBoost学习和统计人脸检测。
    李淑、张姿。 李思哲等。 IEEE Trans-Pattern Ana Mach Intell公司。2004年9月;26(9):1112-23. doi:10.1109/TPAMI.2004.68。 IEEE Trans-Pattern Ana Mach Intell公司。2004 PMID:15742888
  • Boost随机子空间方法。
    García-Pedrajas N,Ortiz-Boyer D。 García-Pedrajas N等人。 神经网络。2008年11月;21(9):1344-62. doi:10.1016/j.neunet.2007.12.046。Epub 2008年1月6日。 神经网络。2008 PMID:18272334
  • 感知器网络上错误泛函的最小化。
    科尔科夫五世。 科尔科夫五世。 神经计算。2008年1月;20(1):252-70. doi:10.1162/neco.2008.201.252。 神经计算。2008 PMID:18045008
  • 多级增压对数损失函数的变形。
    卡纳莫利T。 卡纳莫利T。 神经网络。2010年9月;23(7):843-64. doi:10.1016/j.neunet.2010.05.009。Epub 2010年5月26日。 神经网络。2010 PMID:20542407

LinkOut-更多资源