×

基于分类树的集成方法的经验比较。 (英语) Zbl 1075.62051号

总结:我们对几种基于分类树的集成方法的分类误差进行了实证比较。通过使用14个公开可用的数据集和T.-S.Lim公司,W.-Y.Loh先生Y.-S.Shih先生[机器学习。40、203–228(2000;Zbl 0969.68669号)]. 所考虑的方法是一棵树、打包、增强(弧)和随机森林(RF)。从不同的角度对它们进行了比较。
更准确地说,我们研究了噪声和树构造中允许线性组合的影响,一些分割标准之间的差异,特别是对于RF,在每个给定节点选择最佳分割的变量数量的影响。此外,我们将我们的结果与Lim等人的结果进行了比较。使用RF获得了最佳的总体结果。特别是,射频对噪声最为稳健。平均而言,允许线性组合的效果和拆分标准之间的差异很小,但对于某些数据集来说可能会很大。

MSC公司:

62H30型 分类和区分;聚类分析(统计方面)
65C60个 统计中的计算问题(MSC2010)
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] Breiman L.,《机器学习》,第24页,第123页–(1996年)
[2] Freund,Y.和Schapire,R.E.用一种新的增强算法进行实验。机器学习:第十三届国际会议论文集。旧金山摩根考夫曼。第148-156页。
[3] DOI:10.1023/A:1010933404324·兹比尔1007.68152 ·doi:10.1023/A:1010933404324
[4] 内政部:10.1007/3-540-45014-9_1·doi:10.1007/3-540-45014-9_1
[5] Breiman L.,分类和回归树(1984)·Zbl 0541.62042号
[6] DOI:10.1023/A:1007515423169·doi:10.1023/A:1007515423169
[7] Maclin R.,《人工智能研究杂志》11第169页–(1999)
[8] DOI:10.1023/A:1007607513941·doi:10.1023/A:1007607513941
[9] DOI:10.1214/aos/1024691079·Zbl 0934.62064号 ·doi:10.1214操作系统/1024691079
[10] DOI:10.1023/A:1007608224229·Zbl 0969.68669号 ·doi:10.1023/A:1007608224229
[11] Meir R.,机器学习高级讲座,第119页–(2003年)
[12] DOI:10.1023/A:1007618119488·Zbl 0969.68128号 ·doi:10.1023/A:1007618119488
[13] DOI:10.1023/A:101085229904·兹伯利0988.68150 ·doi:10.1023/A:101085229904
[14] Servedio,R.A.在恶意噪音中顺利提升和学习。摘自:第十四届计算学习理论年会论文集。第472-489页·Zbl 0992.68509号
[15] Breiman L.,《机器学习》,第24页,第41页–(1996年)
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。