阿达布思.RT

用AdaBoost.RT进行实验,这是一种改进的回归boosting方案。与针对分类问题的研究相比,boosting技术在回归问题中的应用受到的关注相对较少。这封信描述了一个新的boosting算法,AdaBoost.RT,用于回归问题。其思想是将相对估计误差大于设定阈值的样本过滤出来,然后按照AdaBoost程序进行处理。因此,它需要选择误差阈值的次优值来将示例划分为预测不好或预测良好的示例。本文报道了用M5模型树作为弱学习机对几个基准数据集进行的实验结果。结果与其他boosting方法、bagging、人工神经网络和单个M5模型树进行了比较。初步的经验比较表明,对于大多数考虑的数据集,AdaBoost.RT的性能更高。


zbMATH参考文献(14篇文章引用)

显示第1至14个结果,共14个。
按年份排序(引用)

  1. Aravkin,Aleksandr Y.;Bottegal,Giulio;Pillonetto,Gianluigi:《作为基于内核的方法的提升》(2019年)
  2. 张春霞;张江社;金相宇:PBoostGA:用于变量排序和选择的伪boosting遗传算法(2016)
  3. Jackowski,Konrad:回归的自适应分裂和选择算法(2015)ioport公司
  4. 张鹏波;杨志新:基于AdaBoost.RT的集成极限学习机(2015)
  5. Alhamdoosh,Monther;Wang,Dianhui:具有随机权重的快速去相关神经网络集成(2014)
  6. Kim,Hyun Hak;Swanson,Norman R.:使用数据缩减方法预测金融和宏观经济变量:新的经验证据(2014)
  7. Carlos Pardo;JoséF Diez Pastor;García-Osorio,César;Rodríguez,Juan J.:森林轮作回归(2013年)
  8. Techo,Jakkrit;Nattee,Cholwich;Theeramunkong,Thanaruk:基于Boosting的集成学习与惩罚模式自动泰语未知词识别(2012)ioport公司
  9. Kevin Bailly;Milgram,Maurice:基于神经网络回归的增强特征选择(2009)ioport公司
  10. 张春霞;张江社;张盖英:用提升技术修剪双袋组合(2009)
  11. 张春霞;张江社;王冠伟:利用轮作林提高回归系数的实证研究(2008)
  12. Shrestha,D.L.;Solomatine,D.P.:ADABOST.RT的实验,一种改进的回归boosting方案(2006)
  13. Shrestha,Durga L.;Solomatine,Dimitri P.:估计模型输出预测区间的机器学习方法。(2006年)
  14. Solomatine,D.P.;Siek,M.B.:预测自然现象的模块化学习模型。(2006年)