穆尼尔·哈姆扎;拉罗克,丹尼斯 基于分类树的集成方法的经验比较。 (英语) Zbl 1075.62051号 J.统计计算。模拟 75,第8号,629-643(2005). 总结:我们对几种基于分类树的集成方法的分类误差进行了实证比较。通过使用14个公开可用的数据集和T.-S.Lim公司,W.-Y.Loh先生和Y.-S.Shih先生[机器学习。40、203–228(2000;Zbl 0969.68669号)]. 所考虑的方法是一棵树、打包、增强(弧)和随机森林(RF)。从不同的角度对它们进行了比较。更准确地说,我们研究了噪声和树构造中允许线性组合的影响,一些分割标准之间的差异,特别是对于RF,在每个给定节点选择最佳分割的变量数量的影响。此外,我们将我们的结果与Lim等人的结果进行了比较。使用RF获得了最佳的总体结果。特别是,射频对噪声最为稳健。平均而言,允许线性组合的效果和拆分标准之间的差异很小,但对于某些数据集来说可能会很大。 引用于13文件 MSC公司: 62H30型 分类和区分;聚类分析(统计方面) 65C60个 统计中的计算问题(MSC2010) 关键词:装袋;增压;电弧;随机森林(RF);分类树;汽车;噪音;变量的线性组合;分解规则;吉尼;熵;双打;桌子 引文:Zbl 0969.68669号 PDF格式BibTeX公司 XML格式引用 \textit{M.Hamza}和\textit{D.Larocque},J.Stat.Comput。模拟75,No.8,629--643(2005;Zbl 1075.62051) 全文: 内政部 参考文献: [1] Breiman L.,《机器学习》,第24页,第123页–(1996年) [2] Freund,Y.和Schapire,R.E.用一种新的增强算法进行实验。机器学习:第十三届国际会议论文集。旧金山摩根考夫曼。第148-156页。 [3] DOI:10.1023/A:1010933404324·兹比尔1007.68152 ·doi:10.1023/A:1010933404324 [4] 内政部:10.1007/3-540-45014-9_1·doi:10.1007/3-540-45014-9_1 [5] Breiman L.,分类和回归树(1984)·Zbl 0541.62042号 [6] DOI:10.1023/A:1007515423169·doi:10.1023/A:1007515423169 [7] Maclin R.,《人工智能研究杂志》11第169页–(1999) [8] DOI:10.1023/A:1007607513941·doi:10.1023/A:1007607513941 [9] DOI:10.1214/aos/1024691079·Zbl 0934.62064号 ·doi:10.1214操作系统/1024691079 [10] DOI:10.1023/A:1007608224229·Zbl 0969.68669号 ·doi:10.1023/A:1007608224229 [11] Meir R.,机器学习高级讲座,第119页–(2003年) [12] DOI:10.1023/A:1007618119488·Zbl 0969.68128号 ·doi:10.1023/A:1007618119488 [13] DOI:10.1023/A:101085229904·兹伯利0988.68150 ·doi:10.1023/A:101085229904 [14] Servedio,R.A.在恶意噪音中顺利提升和学习。摘自:第十四届计算学习理论年会论文集。第472-489页·Zbl 0992.68509号 [15] Breiman L.,《机器学习》,第24页,第41页–(1996年) 此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。