×

调整随机林中的参数。 (英语) Zbl 1427.68273号

总结:布雷曼《马赫·学习》第45卷第1期第5-32页(2001年;Zbl 1007.68152号)]随机森林是一类非常流行的学习算法,即使在高维框架中也能产生良好的预测,而无需精确调整其内部参数。不幸的是,没有理论发现支持Breiman算法中这些参数的默认值。因此,本文的目的是提供最新的理论结果,为这些参数的作用和调整提供一些见解。

MSC公司:

68T05型 人工智能中的学习和自适应系统
62H30型 分类和区分;聚类分析(统计方面)
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] S.Arlot和R.Genuer。纯随机森林偏差分析。arXiv:1407.39392014年·Zbl 1402.62131号
[2] S.Bernard、L.Heutte和S.Adam。森林RK:一种新的随机森林诱导方法。D.S.Huang、D.C.Wunsch II、D.S.Levine和K.-H.Jo,编辑,《高级智能计算理论和应用:人工智能方面》,第430-437页,柏林,2008年。斯普林格。
[3] G.Biau。随机森林模型分析。{机器学习研究杂志},13:1063-10952012·Zbl 1283.62127号
[4] G.Biau和L.Devroye。细胞树分类器。{\it电子统计杂志},7:1875-19122013·Zbl 1293.62067号
[5] G.Biau、L.Devroye和G.Lugosi。随机森林和其他平均分类器的一致性。机器学习研究杂志,9:2015-20332008·Zbl 1225.62081号
[6] G.Biau和E.Scornet。随机森林导览。{\it测试},25:197-2272016年·Zbl 1402.62133号
[7] A.-L.Boulesteix、S.Janitza、J.Kruppa和I.R.König。随机森林方法和实践指南概述,重点是计算生物学和生物信息学。{威利跨学科}{评论:数据挖掘和知识发现},2:493-5072012。
[8] L.布雷曼。随机森林。{\it机器学习},45:5-322001·Zbl 1007.68152号
[9] L.布雷曼。{\it随机林的简单模型的一致性}。《技术报告670》,加州大学伯克利分校,2004年。
[10] L.Breiman、J.H.Friedman、R.A.Olshen和C.J.Stone。{\it分类和回归树}。查普曼和霍尔/CRC,博卡拉顿,1984年·Zbl 0541.62042号
[11] A.克里米尼西、J.肖顿和E.科努科格鲁。决策森林:分类、回归、密度估计、流形学习和半监督学习的统一框架。《计算机图形学与视觉的基础与趋势》,7:81-2272011·Zbl 1243.68235号
[12] D.R.卡特勒、T.C.小爱德华兹、K.H.比尔德、A.卡特勒、K.T.赫斯、J.吉布森和J.J.劳勒。生态学分类的随机森林。{\it生态学},88:2783-27922007。
[13] R.Díaz-Uriarte和S.Alvarez de AndréS。使用随机森林对微阵列数据进行基因选择和分类。{\it BMC生物信息学},7:1-132006。
[14] R.Duroux和E.Scornet。二次采样和修剪对随机森林的影响。arXiv:1603.042612016年·Zbl 1409.62072号
[15] R.Genuer。纯随机森林中的方差减少。{\f5《非参数统计杂志》}{\f5,24:543-5622012·Zbl 1254.62050号
[16] R.Genuer、J.Poggi和C.Tuleau-Malot。使用随机森林进行变量选择。{模式识别}{字母},31:2225-22362010。
[17] L.Györfi、M.Kohler、A.Krzyżak和H.Walk。{它是非参数回归的无分布理论}。施普林格,纽约,2002年·Zbl 1021.62024号
[18] T.Hastie和R.Tibshirani。广义加性模型。{\it统计科学},1:297-3101986·Zbl 0645.62068号
[19] H.伊斯瓦兰。分裂对随机森林的影响。{\it机器学习},第1-44页,2013年。
[20] L.Meier、S.Van de Geer和P.Bühlmann。高维加性建模。{\it《统计年鉴》},37:3779-38212009年·Zbl 1360.62186号
[21] N.明绍森。分位数回归森林。《机器学习研究杂志》,7:983-9992006.ESAIM:PROCEEDINGS AND SURVEYS159·Zbl 1222.68262号
[22] L.Mentch和G.Hooker。集成树和clts:监督学习的统计推断。arXiv:1404.64732014。
[23] A.M.Prasad、L.R.Iverson和A.Liaw。更新的分类和回归树技术:用于生态预测的袋装和随机森林。{生态系统},9:181-1992006。
[24] E.Scornet。关于随机森林的渐近性。{多元分析杂志},146:72-832016·Zbl 1337.62063号
[25] E.Scornet、G.Biau和J.-P.垂直。随机森林的一致性。{《统计年鉴》,43:1716-17412015·Zbl 1317.62028号
[26] J.Shotton、A.Fitzgibbon、M.Cook、T.Sharp、M.Finocchio、R.Moore、A.Kipman和A.Blake。从单深度图像中实时识别部分人体姿势。2011年IEEE计算机视觉会议,第1297-1304页。
[27] C.J.斯通。加性回归和其他非参数模型。{《统计年鉴》,689-7051985页·Zbl 0605.62065号
[28] V.Svetnik、A.Liaw、C.Tong、J.C.Culberson、R.P.Sheridan和B.P.Feuston。随机森林:用于化合物分类和QSAR建模的非分类和回归工具。化学杂志,信息与计算机科学,43:1947-19582003。
[29] M.van der Laan、E.C.Polley和A.E.Hubbard。超级学习者。《遗传学中的统计应用》和《分子生物学》,2007年6月·Zbl 1166.62387号
[30] S.Wager。随机森林的渐近理论。arXiv:1405.03522014年。
[31] S.Wager、T.Hastie和B.Efron。袋装预测因子和随机森林的标准误差。arXiv:1311.45552013。
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。