×

神经随机森林。 (英语) 兹比尔1437.62228

摘要:给定一组随机回归树,可以将它们重组为具有特定连接权重的多层神经网络集合。根据这一原则,我们重新制定了布雷曼[Mach.Learn.45,No.1,5-32(2001;Zbl 1007.68152号)]然后提出两种新的混合过程,我们称之为神经随机森林。这两种预测方法都利用了回归树的先验知识来构建其体系结构,与标准网络相比,需要调整的参数更少,对决策边界几何结构的限制也更少。证明了结果的一致性,并在合成数据集和实际数据集上提供了大量数值证据,以评估我们的方法在各种预测问题中的优异性能。

MSC公司:

62H30型 分类和区分;聚类分析(统计方面)
62M45型 神经网络及从随机过程推断的相关方法
62G08号 非参数回归和分位数回归
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] Abadi,M.、Agarwal,A.、Barham,P.、Brevdo,E.等人(2015)。TensorFlow:异构系统上的大规模机器学习。http://tensorflow.org/。
[2] Bengio,Y.,人工智能的学习深度架构,机器学习的基础和趋势,2,1-127(2009)·Zbl 1192.68503号 ·doi:10.1561/2200000006
[3] Biau,G。;Scornet,E.,《随机森林导览》(作者评论和反驳),TEST,25197-227(2016)·Zbl 1402.62133号 ·doi:10.1007/s11749-016-0481-7
[4] 布列斯特,A-L;贾尼察,S。;Kruppa,J。;König,Ir,《随机森林方法和实践指南概述,重点是计算生物学和生物信息学》,威利跨学科评论:数据挖掘和知识发现,2493-507(2012)
[5] Breiman,L.,《随机森林》,机器学习,45,5-32(2001)·Zbl 1007.68152号 ·doi:10.1023/A:1010933404324
[6] 布雷曼,L。;Jh弗里德曼;奥申,Ra;Stone,Cj,分类和回归树(1984),博卡拉顿:查普曼和霍尔/CRC,博卡拉顿·兹伯利0541.62042
[7] Brent,Rp,多层神经网络的快速训练算法,IEEE神经网络汇刊,2346-354(1991)·doi:10.1109/72.97911
[8] 奇普曼,哈;乔治·艾;Mcculloch,Re,BART:贝叶斯加性回归树,应用统计年鉴,4266-298(2010)·Zbl 1189.62066号 ·doi:10.1214/09-AOAS285
[9] Cortez,P.和Morais,A.(2007年)。使用气象数据预测森林火灾的数据挖掘方法。收录人:J.Neves、M.F.Santos和J.Machado,编辑,《人工智能新趋势》,第13届葡萄牙人工智能会议论文集,第512-523页。
[10] Devroye,L。;Györfi,L。;Lugosi,G.,模式识别的概率理论(1996),纽约:Springer,纽约·Zbl 0853.68150号
[11] 费尔南德斯·德尔加多,M。;Cernadas,E。;巴罗,S。;Amorim,D.,我们需要数百个分类器来解决现实世界的分类问题吗?,机器学习研究杂志,15,3133-3181(2014)·Zbl 1319.62005号
[12] Geurts,P.和Wehenkel,L.(2005年)。基于树的模型的闭式双重扰动和组合。ACM,纽约,第233-240页。
[13] Györfi,L。;科勒,M。;Krzyżak,A。;Walk,H.,《非参数回归的无分布理论》(2002),纽约:Springer出版社,纽约·Zbl 1021.62024号
[14] 哈斯蒂,T。;Tibshirani,R。;弗里德曼,J.,《统计学习的要素》,第二版。(2009),纽约:施普林格,纽约·Zbl 1273.62005年
[15] Ioannou,Y.、Robertson,D.、Zikic,D.、Kontschieder,P.、Shotton,J.、Brown,M.和Criminisi,A.(2016)。决策森林、卷积网络和中间模型。arXiv:1603.01250。
[16] Ishwaran,H。;Kogalur,Ub;陈,X。;Minn,Aj,高维数据的随机生存森林,统计分析和数据挖掘,4115-132(2011)·Zbl 07260271号 ·doi:10.1002/sam.10103
[17] 米·乔丹(Mi Jordan);Jacobs,Ra,专家和EM算法的层次混合,神经计算,6181-214(1994)·doi:10.1162/neco.1996.2.181
[18] Kingma,D.P.和Ba,J.(2015)。亚当:一种随机优化方法。参加:学习表现国际会议。
[19] Kontschieder,P。;Fiterau先生。;克里米尼西,A。;Rota Buló,S.,深层神经决策森林。参加:计算机视觉国际会议(2015)
[20] Lichman,M.,UCI机器学习库(2013)
[21] 卢戈西,G。;Zeger,K.,通过经验风险最小化进行非参数估计,IEEE信息理论汇刊,41677-687(1995)·Zbl 0818.62041号 ·doi:10.1109/18.382014年
[22] Meinshausen,N.,分位数回归森林,机器学习研究杂志,7983-999(2006)·Zbl 1222.68262号
[23] Menze,B.H.、Kelm,B.M.、Splitthoff,D.N.、Koethe,U.和Hamprecht,F.A.(2011年)。在倾斜的随机森林上。《数据库中的机器学习和知识发现》,柏林斯普林格、D.古诺普洛斯、T.霍夫曼、D.马勒巴和M.瓦齐吉安尼编辑,第453-469页。
[24] 奥拉鲁,C。;Wehenkel,L.,《完全模糊决策树技术》,《模糊集与系统》,138221-254(2003)·doi:10.1016/S0165-0114(03)00089-7
[25] 佩德雷戈萨,F。;瓦罗佐,G。;Gramfort,A。;Michel,V,,《Scikit-learn:Python中的机器学习》,《机器学习研究杂志》,第12期,第2825-2830页(2011年)·Zbl 1280.68189号
[26] Pollard,D.,《随机过程的收敛》(1984),纽约:施普林格,纽约·Zbl 0544.60045号
[27] Redmond,M。;Baveja,A.,用于实现警察部门之间合作信息共享的数据驱动软件工具,《欧洲运筹学杂志》,141660-678(2002)·Zbl 1081.68745号 ·doi:10.1016/S0377-2217(01)00264-8
[28] Richmond,D.L.、Kainmueller,D.、Yang,M.Y.、Myers,E.W.和Rother,C.(2015)。将级联随机森林与深度卷积神经网络联系起来,用于语义分割。arXiv:1507:07583。
[29] 罗卡奇,L。;Maimon,O.,《使用决策树进行数据挖掘:理论与应用》(2008),新加坡:世界科学出版社,新加坡·Zbl 1154.68098号
[30] Scornet,E。;Biau,G。;Vert,J-P,《随机森林的一致性》,《统计年鉴》,第43期,第1716-1741页(2015年)·Zbl 1317.62028号 ·doi:10.1214/15-AOS1321
[31] Sethi,Ik,《熵网:从决策树到神经网络》,IEEE学报,781605-1613(1990)·数字对象标识代码:10.1109/5.58346
[32] Sethi,I.K.(1991年)。使用人工神经网络解释增强决策树性能。Elsevier,阿姆斯特丹,Sethi,I.K.和Jain,A.K.(编辑),6912,第71-88页。
[33] Welbl,J.(2014)。将随机森林打造成人工神经网络(并从中受益)。模式识别,Springer,Berlin Jiang,X.,Hornegger,J.,Koch,R.(编辑),第765-771页。
[34] Yeh,I-C,使用人工神经网络的高性能混凝土强度建模,水泥和混凝土研究,281797-1808(1998)·doi:10.1016/S0008-8846(98)00165-3
[35] Yildiz,O.T.和Alpaydin,E.(2013)。规范化软决策树。信息科学与系统2013,Springer,Cham,。第15-21页。
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。