×

使用boosting来修剪双袋集合。 (英语) Zbl 1452.62145号

小结:Boosting用于确定基本预测因子聚合为Double-Bagging集合的顺序,并通过基于两个启发式停止规则提前停止聚合过程来构建子集合。在所有研究的分类和回归问题中,在大多数情况下,修剪后的集合的性能优于或好于打包、Boosting和完全随机排序的双打包集合。因此,在综合考虑预测精度、预测速度和存储要求的情况下,该方法可能是解决当前预测问题的一个很好的选择。

MSC公司:

62-08 统计问题的计算方法
62H30型 分类和区分;聚类分析(统计方面)
68T05型 人工智能中的学习和自适应系统
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] Adem,J。;Gochet,W.,《用数学编程聚合分类器》,计算。统计师。数据分析。,47, 4, 791-807 (2004) ·Zbl 1429.62230号
[2] 阿莫尔斯,J。;塞贝,N。;Radeva,P.,推进距离估计:应用于K-最近邻分类器,模式识别。莱特。,27, 3, 201-209 (2006)
[3] Asuncion,A.,Newman,D.J.,2007年。UCI机器学习库。网址:网址:http://www.ics.uci.edu/mlearn/MLRepository.html,加利福尼亚州欧文:加利福尼亚大学信息与计算机科学学院;Asuncion,A.,Newman,D.J.,2007年。UCI机器学习库。URL可用位置:网址:http://www.ics.uci.edu/mlearn/MLRepository.html,加利福尼亚州欧文:加利福尼亚大学信息与计算机科学学院
[4] Avnimelech,R。;Intrator,N.,Boosting回归估计量,神经计算。,11, 2, 499-520 (1999)
[5] 贝克,B。;Heskes,T.,神经网络模型的聚类集成,神经网络,16,2,261-269(2003)
[6] Banfield,R.E。;洛杉矶霍尔。;鲍耶,K.W。;Kegelmeyer,W.P.,《集合多样性措施及其在间伐中的应用》,Inform。融合,6,1,49-62(2005)
[7] 鲍尔,E。;Kohavi,R.,《投票分类算法的经验比较:打包、增强和变体》,马赫。学习。,36, 1-2, 105-139 (1999)
[8] Breiman,L.,装袋预测,马赫数。学习。,24, 2, 123-140 (1996) ·Zbl 0858.68080号
[9] Breiman,L.,1996年b。银行外估算。加利福尼亚大学伯克利分校统计系技术报告,加利福尼亚州94708;Breiman,L.,1996年b。银行外估算。加州大学伯克利分校统计系技术报告94708
[10] Breiman,L.,电弧分类器,Ann.Statist。,26, 3, 801-849 (1998) ·Zbl 0934.62064号
[11] Breiman,L.,《随机森林》,马赫。学习。,45, 1, 5-32 (2001) ·Zbl 1007.68152号
[12] Breiman,L.,《使用迭代装袋法借记回归》,马赫。学习。,45, 3, 261-277 (2001) ·Zbl 1052.68109号
[13] 布雷曼,L。;弗里德曼,J。;Olshen,R。;Stone,C.,《分类和回归树》(1984),查普曼和霍尔出版社:纽约查普曼与霍尔出版社·兹伯利0541.62042
[14] Chandra,A。;Yao,X.,《进化学习机器的混合集成以实现更好的泛化》,神经计算,69,7-9,686-700(2006)
[15] 德米尔,C。;Alpaydin,E.,Cost-consicious分类器集成,模式识别。莱特。,26, 14, 2206-2214 (2005)
[16] Dietterich,T.G.,《构建决策树集合的三种方法的实验比较:打包、提升和随机化》,马赫。学习。,40, 2, 139-157 (2000)
[17] 多明戈斯,P.,通过多个模型从实例中获取知识,(第14届国际机器学习会议论文集(1997),摩根·考夫曼:摩根·考夫曼旧金山),98-106
[18] Drucker,H.,《使用Boosting技术改进回归量》,(第十四届机器学习国际会议论文集(1997),摩根考夫曼:摩根考夫曼旧金山),107-115
[19] 达菲,N。;Helmbold,D.,回归的推进方法,马赫数。学习。,47, 2-3, 153-200 (2002) ·Zbl 0998.68113号
[20] 埃夫隆,B。;Tibshirani,R.,《Bootstrap简介》(1993),查普曼和霍尔:查普曼与霍尔新作品·Zbl 0835.62038号
[21] 弗朗索瓦,J。;Grandvalet,Y。;Denœux,T。;Roger,J.M.,《重采样与合并:改进证据模式分类中不确定性表示的方法》,Inform。聚变,4,2,75-85(2003)
[22] 弗伦德,Y。;Schapire,R.,《在线学习的决策理论推广及其在Boosting中的应用》,J.Compute。系统科学。,55, 1, 119-139 (1997) ·Zbl 0880.68103号
[23] Friedman,J.,多元自适应回归样条曲线,Ann.Statist。,19, 1, 1-141 (1991) ·Zbl 0765.62064号
[24] Friedman,J.,《贪婪函数近似:梯度推进机》,Ann.Statist。,29, 5, 1189-1232 (2001) ·Zbl 1043.62034号
[25] 弗里德曼,J。;哈斯蒂,T。;Tibshirani,R.,《加性逻辑回归:Boosting的统计观点》,Ann.Statist。,28, 2, 337-407 (2000) ·Zbl 1106.62323号
[26] Giacinto,G。;Roli,F.,《多分类器系统的自动设计方法》,模式记录。莱特。,22, 1, 25-33 (2001) ·Zbl 0978.68117号
[27] Hansen,J.V.,2000年。组合预测因素:元机器学习方法和偏差/方差和模糊度分解。丹麦奥胡斯大学计算机科学系博士学位论文;Hansen,J.V.,2000年。组合预测因素:元机器学习方法和偏差/方差和模糊度分解。丹麦奥胡斯大学计算机科学系博士学位论文
[28] Ho,T.K.,构建决策森林的随机子空间方法,IEEE Trans。模式分析。机器。整数。,20832-844(1998年)
[29] Hothorn,T。;Lausen,B.,Double-Bagging:通过引导聚合组合分类器,Pattern Recog。,36, 6, 1303-1309 (2003) ·Zbl 1028.68144号
[30] Hothorn,T。;Lausen,B.,通过装袋树捆绑分类器,计算。统计数据分析。,49, 4, 1068-1078 (2005) ·Zbl 1429.62246号
[31] Kim,H.C。;庞,S。;Je,H.M.先生。;Kim,D。;Bang,S.Y.,构建支持向量机集成,模式识别。,36, 12, 2757-2767 (2003) ·Zbl 1059.68091号
[32] Kuncheva,L.I.,六种分类器融合策略的理论研究,IEEE Trans。模式分析。机器。整数。,24, 2, 281-286 (2002)
[33] Kuncheva,L.I.,《组合模式分类器、方法和算法》(2004),Wiley Interscience:Wiley Interscience Hoboken,NJ·Zbl 1066.68114号
[34] Kuncheva,L.I。;Bezdek,J.C。;Duin,R.P.W.,《多分类器融合的决策模板:实验比较》,模式识别。,34, 1, 299-314 (2001) ·兹比尔0991.68064
[35] Kuncheva,L.I。;斯科里奇纳,M。;Duin,R.P.W.,《利用线性分类器对袋装和增压的多样性进行的实验研究》,Inform。融合,3,4,245-258(2002)
[36] 卢茨,R.W。;Kalisch,M。;Bühlmann,P.,稳健性增强,计算。统计数据分析。,52, 7, 3331-3341 (2008) ·Zbl 1452.62503号
[37] 麦克林(R.Maclin)。;Optiz,D.,《装袋和增压的实证评估》,(第十四届全国人工智能会议论文集(1997),美国人工智能学会出版社:美国人工智能协会罗德岛出版社),546-551
[38] Marginantu,D.D。;Dietterich,T.G.,Pruning adaptive Boosting,(第十四届机器学习国际会议论文集(1997),Morgan Kaufmann:Morgan Koufmann San Francisco),211-218
[39] 马丁内斯·穆尼奥斯,G。;苏亚雷斯,A.,切换类标签以生成分类集合,模式识别。,38, 10, 1483-1494 (2005)
[40] 马丁内斯·穆尼奥斯,G.,苏亚雷斯,A.,2006年。修剪成有序的套袋组合。收录于:第23届国际机器学习大会论文集。宾夕法尼亚州匹兹堡,第609-616页;马丁内斯·穆尼奥斯,G.,苏亚雷斯,A.,2006年。修剪成有序的套袋组合。摘自:第23届机器学习国际会议论文集。宾夕法尼亚州匹兹堡,第609-616页
[41] 马丁内斯·穆尼奥斯,G。;Suárez,A.,《使用Boosting修剪装袋组合》,模式识别。莱特。,28, 1, 156-165 (2007)
[42] 马斯洛夫,I.V。;Gertner,I.,《多传感器融合:进化算法方法》,Inform。Fusion,7,3,304-330(2006)
[43] 梅尔,R。;Rätsch,G.,(《提升和杠杆作用导论》,《提升与杠杆作用导言》,Lect.Notes Compute Sci,第2600卷(2003)),119-184·Zbl 1019.68092号
[44] Prodromidis,A.L。;Stolfo,S.J.,基于成本复杂性的集成分类器剪枝,Know。通知。系统。,3, 4, 449-469 (2001) ·Zbl 0987.68630号
[45] Rätsch,G。;Onoda,T。;Müller,K.R.,为Adaboust制作的软饮料,马赫。学习。,42, 3, 287-320 (2001) ·Zbl 0969.68128号
[46] 罗德里格斯,J.J。;Kuncheva,L.I。;Alonso,C.J.,《旋转森林:一种新的分类器集成方法》,IEEE Trans。模式分析。机器。整数。,28, 10, 1619-1630 (2006)
[47] 夏皮雷,R.E。;弗伦德,Y。;Bartlett,P。;Lee,W.S.,《提高差距:投票方法有效性的新解释》,Ann.Statist。,26, 5, 1651-1686 (1998) ·Zbl 0929.62069号
[48] Shrestha,D.L。;Solomatine,D.P.,AdaBoost实验。RT:一种改进的回归增强方案,神经计算。,18, 7, 1678-1710 (2006) ·Zbl 1115.68488号
[49] 曹国荣。;Chang,Y.I.,增压的随机近似观点,计算。统计数据分析。,52, 1, 325-344 (2007) ·Zbl 1452.62134号
[50] Tsymbal,A。;Puuronen,S。;Patterson,D.W.,用简单贝叶斯分类集成特征选择,Inform。融合,4,2,87-100(2003)
[51] Vannoorenberghe,P.,关于聚合信念决策树,Inform。融合,5,3,179-188(2004)
[52] 维斯瓦纳特,P。;Murty,M.N。;Bhatnagar,S.,多个近似最近邻分类器的融合,用于快速有效的分类,Inform。融合,5,4,239-250(2004)
[53] Webb,G.I.,《多重增压:一种结合增压和摇摆的技术》,马赫。学习。,40, 2, 159-196 (2000)
[54] Weston,J.A.E.、Stitson,M.O.、Gammerman,A.、Vovk,V.、Vapnik,V.,1996年。支持向量机实验。技术报告:CSD-TR-96-19,伦敦皇家霍洛威大学;Weston,J.A.E.、Stitson,M.O.、Gammerman,A.、Vovk,V.、Vapnik,V.,1996年。支持向量机实验。技术报告:CSD-TR-96-19,伦敦皇家霍洛韦大学
[55] 张春霞。;Zhang,J.S.,用于解决分类问题的局部推进算法,计算。统计数据分析。,52, 4, 1928-1941 (2008) ·Zbl 1452.62478号
[56] 周,Z.H。;吴建新。;Tang,W.,集成神经网络:许多可能比所有更好,Artif。整数。,137, 1-2, 239-263 (2002) ·Zbl 0995.68077号
[57] 周,Z.H。;Tang,W.,决策树的选择性集合,(Lect.Notes Artif.Intell.,第2639卷(2003)),476-483·兹比尔1026.68599
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。