杰拉德·比亚;二湾蝎子;约翰内斯·韦尔布尔 神经随机森林。 (英语) 兹比尔1437.62228 Sankhyá,Ser。A类 81,第2期,347-386(2019). 摘要:给定一组随机回归树,可以将它们重组为具有特定连接权重的多层神经网络集合。根据这一原则,我们重新制定了布雷曼[Mach.Learn.45,No.1,5-32(2001;Zbl 1007.68152号)]然后提出两种新的混合过程,我们称之为神经随机森林。这两种预测方法都利用了回归树的先验知识来构建其体系结构,与标准网络相比,需要调整的参数更少,对决策边界几何结构的限制也更少。证明了结果的一致性,并在合成数据集和实际数据集上提供了大量数值证据,以评估我们的方法在各种预测问题中的优异性能。 引用于三文件 MSC公司: 62H30型 分类和区分;聚类分析(统计方面) 62M45型 神经网络及从随机过程推断的相关方法 62G08号 非参数回归和分位数回归 关键词:随机森林;神经网络;集合方法;随机化;稀疏网络 引文:Zbl 1007.68152号 软件:UCI-毫升;贝叶斯树;巴蒂;亚当;倾斜RF;Scikit公司;TensorFlow公司 PDF格式BibTeX公司 XML格式引用 \textit{G.Biau}等人,Sankhyá,Ser。A 81,No.2,347--386(2019;Zbl 1437.62228) 全文: DOI程序 arXiv公司 参考文献: [1] Abadi,M.、Agarwal,A.、Barham,P.、Brevdo,E.等人(2015)。TensorFlow:异构系统上的大规模机器学习。http://tensorflow.org/。 [2] Bengio,Y.,人工智能的学习深度架构,机器学习的基础和趋势,2,1-127(2009)·Zbl 1192.68503号 ·doi:10.1561/2200000006 [3] Biau,G。;Scornet,E.,《随机森林导览》(作者评论和反驳),TEST,25197-227(2016)·Zbl 1402.62133号 ·doi:10.1007/s11749-016-0481-7 [4] 布列斯特,A-L;贾尼察,S。;Kruppa,J。;König,Ir,《随机森林方法和实践指南概述,重点是计算生物学和生物信息学》,威利跨学科评论:数据挖掘和知识发现,2493-507(2012) [5] Breiman,L.,《随机森林》,机器学习,45,5-32(2001)·Zbl 1007.68152号 ·doi:10.1023/A:1010933404324 [6] 布雷曼,L。;Jh弗里德曼;奥申,Ra;Stone,Cj,分类和回归树(1984),博卡拉顿:查普曼和霍尔/CRC,博卡拉顿·兹伯利0541.62042 [7] Brent,Rp,多层神经网络的快速训练算法,IEEE神经网络汇刊,2346-354(1991)·doi:10.1109/72.97911 [8] 奇普曼,哈;乔治·艾;Mcculloch,Re,BART:贝叶斯加性回归树,应用统计年鉴,4266-298(2010)·Zbl 1189.62066号 ·doi:10.1214/09-AOAS285 [9] Cortez,P.和Morais,A.(2007年)。使用气象数据预测森林火灾的数据挖掘方法。收录人:J.Neves、M.F.Santos和J.Machado,编辑,《人工智能新趋势》,第13届葡萄牙人工智能会议论文集,第512-523页。 [10] Devroye,L。;Györfi,L。;Lugosi,G.,模式识别的概率理论(1996),纽约:Springer,纽约·Zbl 0853.68150号 [11] 费尔南德斯·德尔加多,M。;Cernadas,E。;巴罗,S。;Amorim,D.,我们需要数百个分类器来解决现实世界的分类问题吗?,机器学习研究杂志,15,3133-3181(2014)·Zbl 1319.62005号 [12] Geurts,P.和Wehenkel,L.(2005年)。基于树的模型的闭式双重扰动和组合。ACM,纽约,第233-240页。 [13] Györfi,L。;科勒,M。;Krzyżak,A。;Walk,H.,《非参数回归的无分布理论》(2002),纽约:Springer出版社,纽约·Zbl 1021.62024号 [14] 哈斯蒂,T。;Tibshirani,R。;弗里德曼,J.,《统计学习的要素》,第二版。(2009),纽约:施普林格,纽约·Zbl 1273.62005年 [15] Ioannou,Y.、Robertson,D.、Zikic,D.、Kontschieder,P.、Shotton,J.、Brown,M.和Criminisi,A.(2016)。决策森林、卷积网络和中间模型。arXiv:1603.01250。 [16] Ishwaran,H。;Kogalur,Ub;陈,X。;Minn,Aj,高维数据的随机生存森林,统计分析和数据挖掘,4115-132(2011)·Zbl 07260271号 ·doi:10.1002/sam.10103 [17] 米·乔丹(Mi Jordan);Jacobs,Ra,专家和EM算法的层次混合,神经计算,6181-214(1994)·doi:10.1162/neco.1996.2.181 [18] Kingma,D.P.和Ba,J.(2015)。亚当:一种随机优化方法。参加:学习表现国际会议。 [19] Kontschieder,P。;Fiterau先生。;克里米尼西,A。;Rota Buló,S.,深层神经决策森林。参加:计算机视觉国际会议(2015) [20] Lichman,M.,UCI机器学习库(2013) [21] 卢戈西,G。;Zeger,K.,通过经验风险最小化进行非参数估计,IEEE信息理论汇刊,41677-687(1995)·Zbl 0818.62041号 ·doi:10.1109/18.382014年 [22] Meinshausen,N.,分位数回归森林,机器学习研究杂志,7983-999(2006)·Zbl 1222.68262号 [23] Menze,B.H.、Kelm,B.M.、Splitthoff,D.N.、Koethe,U.和Hamprecht,F.A.(2011年)。在倾斜的随机森林上。《数据库中的机器学习和知识发现》,柏林斯普林格、D.古诺普洛斯、T.霍夫曼、D.马勒巴和M.瓦齐吉安尼编辑,第453-469页。 [24] 奥拉鲁,C。;Wehenkel,L.,《完全模糊决策树技术》,《模糊集与系统》,138221-254(2003)·doi:10.1016/S0165-0114(03)00089-7 [25] 佩德雷戈萨,F。;瓦罗佐,G。;Gramfort,A。;Michel,V,,《Scikit-learn:Python中的机器学习》,《机器学习研究杂志》,第12期,第2825-2830页(2011年)·Zbl 1280.68189号 [26] Pollard,D.,《随机过程的收敛》(1984),纽约:施普林格,纽约·Zbl 0544.60045号 [27] Redmond,M。;Baveja,A.,用于实现警察部门之间合作信息共享的数据驱动软件工具,《欧洲运筹学杂志》,141660-678(2002)·Zbl 1081.68745号 ·doi:10.1016/S0377-2217(01)00264-8 [28] Richmond,D.L.、Kainmueller,D.、Yang,M.Y.、Myers,E.W.和Rother,C.(2015)。将级联随机森林与深度卷积神经网络联系起来,用于语义分割。arXiv:1507:07583。 [29] 罗卡奇,L。;Maimon,O.,《使用决策树进行数据挖掘:理论与应用》(2008),新加坡:世界科学出版社,新加坡·Zbl 1154.68098号 [30] Scornet,E。;Biau,G。;Vert,J-P,《随机森林的一致性》,《统计年鉴》,第43期,第1716-1741页(2015年)·Zbl 1317.62028号 ·doi:10.1214/15-AOS1321 [31] Sethi,Ik,《熵网:从决策树到神经网络》,IEEE学报,781605-1613(1990)·数字对象标识代码:10.1109/5.58346 [32] Sethi,I.K.(1991年)。使用人工神经网络解释增强决策树性能。Elsevier,阿姆斯特丹,Sethi,I.K.和Jain,A.K.(编辑),6912,第71-88页。 [33] Welbl,J.(2014)。将随机森林打造成人工神经网络(并从中受益)。模式识别,Springer,Berlin Jiang,X.,Hornegger,J.,Koch,R.(编辑),第765-771页。 [34] Yeh,I-C,使用人工神经网络的高性能混凝土强度建模,水泥和混凝土研究,281797-1808(1998)·doi:10.1016/S0008-8846(98)00165-3 [35] Yildiz,O.T.和Alpaydin,E.(2013)。规范化软决策树。信息科学与系统2013,Springer,Cham,。第15-21页。 此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。