卢,魏寅 五十年的分类和回归树。 (英语) Zbl 1416.62347号 国际统计修订版。 82,第3期,329-348(2014). 摘要:自第一个回归树算法发表以来,五十年过去了。新技术增加了远远超过早期方法的功能。现代分类树可以用变量子集上的线性分割对数据进行分区,并在分区中拟合最近邻、核密度和其他模型。回归树可以适用于几乎所有类型的传统统计模型,包括最小二乘、分位数、logistic、泊松和比例风险模型,以及纵向和多响应数据模型。软件(其中大部分是免费的)的更高可用性和可负担性在帮助该技术在更广泛的科学界获得认可和普及方面发挥了重要作用。本文概述了发展情况,并简要回顾了一些主要算法背后的关键思想。 引用于6评论引用于23文件 理学硕士: 62H30型 分类和区分;聚类分析(统计方面) 62G08号 非参数回归和分位数回归 62-02 与统计有关的研究展览(专著、调查文章) 关键词:分类树;回归树;机器学习;预测 PDF格式BibTeX公司 XML格式引用 \textit{W.-Y.Loh},《国际统计》第82版,第3期,第329--348页(2014年;Zbl 1416.62347) 全文: 内政部 参考文献: [1] 阿莱诺。O.(1978)。计数过程族的非参数推断。《美国汇编》第6卷第701-726页·Zbl 0389.62025号 [2] 阿卜杜勒尔。,勒布朗。,史蒂芬斯·D·&哈里森·R。V.(2002)。连续纵向数据的二进制分区:对预测变量进行分类。Stat.Med.,21,3395-3409。 [3] 安赫。(1994年a)。树结构指数回归建模。生物医学杂志,36,43-61·兹比尔0850.62774 [4] 安赫。(1994年b)。树结构极值模型回归。Commun公司。统计理论。M.,23,153-174·Zbl 0825.62084号 [5] 安赫。(1996年a)。通过回归树进行对数-伽马回归建模。Commun公司。统计理论。M.,25,295-311·Zbl 0875.62564号 [6] 安赫。(1996年b)。通过递归分区进行对数正态回归建模。计算。统计数据分析。,21, 381-398. ·Zbl 0875.62338号 [7] AhnH.和陈杰。(1997). 过度分散二项式数据的树状结构逻辑模型,用于建模发展效应。生物统计学,53435-455·Zbl 0878.62075号 [8] AhnH.和LohW.‐范围Y.(1994)。树状结构比例风险回归建模。生物统计学,50471-485·Zbl 0825.62772号 [9] AlbergD.、LastM.&坎德拉。(2012). 基于回归树方法的数据流知识发现。威尔逊。Interdiscip公司。版本:数据挖掘和知识光盘。,2, 69-78. [10] 亚历山大W。P.和GrimshawS。D.(1996)。树回归。J.计算。图表。《统计》,第5卷,第156-175页。 [11] 巴切蒂P.&塞加尔姆。R.(1995)。具有时间相关协变量的生存树:用于估计艾滋病潜伏期的变化。寿命数据分析。,1, 35-47. ·Zbl 0825.62904号 [12] 主教。M.M.、Fienberg S.E.和Holland P。W.(1975)。离散多元分析。马萨诸塞州剑桥:麻省理工学院出版社·Zbl 0332.62039号 [13] 布雷曼。,弗里德曼J。H.、OlshenR。A.和StoneC。J.(1984)。分类和回归树。贝尔蒙特:华兹华斯·Zbl 0541.62042号 [14] 布雷曼。(1996). 装袋预测器。机器。学习。,24, 123-140. ·Zbl 0858.68080号 [15] 布雷曼。(2001). 随机森林。机器。学习。,45, 5-32. ·Zbl 1007.68152号 [16] 布朗。E.、PittardC。L.&ParkH(1996)。具有最优多元决策节点的分类树。图案。认可。莱特。,17, 699-703. [17] 巴克利J。J.和詹姆斯。R.(1979)。截尾数据的线性回归。《生物统计学》,66,429-436·Zbl 0425.62051号 [18] 巴特里S。E.和KaroC。(2002). 在树的叶子中使用k近邻分类。计算。统计数据分析。,40, 27-37. ·Zbl 0990.62050号 [19] ChanK.‐频道Y.&LohW.‐Y.(2004)。LOTUS:一种构建精确且可理解的逻辑回归树的算法。J.计算。图表。统计,13,826-852。 [20] 乔杜里省。,黄M-‐C.、LohW.‐Y.和YaoR。(1994). 分段多项式回归树。中国统计局,4143-167·Zbl 0824.62032号 [21] 乔杜里省。,低水位D.、LohW.‐Y.&YangC.‐C.(1995年)。广义回归树。中国统计局,5641-666·Zbl 0824.62060号 [22] ChaudhuriP.&低水位‐Y.(2002)。使用分位数回归树的条件分位数的非参数估计。伯努利,8561-576·Zbl 1009.62031号 [23] 奇普曼。A.、GeorgeE。I.和McCullochR。E.(1998年)。贝叶斯CART模型搜索。J.Amer。统计师。协会,93,935-948。 [24] 奇普曼。A.、GeorgeE。I.和McCullochR。E.(2002)。贝叶斯树模型。机器。学习。,48, 299-320. ·Zbl 0998.68072号 [25] ChoH公司。J.&Hong S.‐M.(2008)。用于分析截尾生存数据的中值回归树。IEEE T.系统。Man Cy.A.,第38页,第715-726页。 [26] 崔伊。,AhnH.和陈杰。(2005). 用于分析具有额外泊松变化的计数数据的回归树。计算。统计数据分析。,49, 893-915. ·Zbl 1430.62165号 [27] 周普。A.(1991年)。分类树和回归树的最佳划分。IEEE T.模式。分析。,13, 340-354. [28] CiampiA公司。(1991). 广义回归树。计算。统计数据。分析。,12, 57-78. ·Zbl 0825.62610号 [29] 智利。,时装设计师ALiS公司。L.(2002)。具有用于二进制结果的软节点的预测树。《医学总汇》,211145-1165。 [30] 智利。,霍格斯。A.、McKinney S.&蒂法特J。(1988). RECPAM:一种计算机程序,用于对截尾生存数据和生物统计学中经常出现的其他情况进行递归分割和合并。计算。方法。掠夺。生物,26,239-256。 [31] 智利。,蒂法特J。,NakacheJ‐P和装配B。(1986). 通过逐步回归、对应分析和递归划分进行分层:对具有协变量的生存数据的三种分析方法的比较。计算。统计数据分析。,4, 185-204. ·Zbl 0649.62106号 [32] 克拉克J.&威斯特。(2008). 临床基因组数据生存分析的贝叶斯-威布尔树模型。统计方法。,5, 238-262. ·Zbl 1248.62209号 [33] 克劳利J。,勒布朗。,先生R.&鲑鱼S。(1995). 生存分析中的探索性方法。《审查数据分析》,第27卷,H.L.Koul(编辑)和J.V.Deshpande(编辑),第55-77页。数理统计研究所,IMS讲稿‐专题系列:加利福尼亚州海沃德·Zbl 0876.62094号 [34] 戴维斯R。B.和Anderson J。R.(1989)。指数生存树。《Stat.Med.》,第8卷,第947-961页。 [35] De'athG公司。(2002). 多元回归树:一种新的物种-环境关系建模技术。生态学,83,1105-1117。 [36] 德国FabriciusK公司。E.(2000)。分类和回归树:一种强大而简单的生态数据分析技术。生态学,81,3178-3192。 [37] 丹尼森D。G.T.、Mallick B。K.&SmithA公司。F.M.(1998)。贝叶斯CART算法。生物特征,85,363-377·Zbl 1048.62502号 [38] 饮食疗法。G.(2000)。机器学习中的集成方法。《多分类器系统》,LBCS‐1857,第1-15页。纽约:斯普林格。 [39] 丁黄。&西蒙诺夫J。S.(2010年)。研究应用于二进制响应数据的分类树的缺失数据方法。J.马赫。学习。决议,11,131-170·Zbl 1242.62052号 [40] 多布拉和盖尔克J。E.(2002)。秘密:一种可扩展的线性回归树算法。第八届ACM SIGKDD知识发现和数据挖掘国际会议论文集,第481-487页。加拿大埃德蒙顿:ACM出版社。 [41] 多伊勒。(1973). 使用自动交互检测器和类似的搜索程序。操作。Res.Quart.公司。,24, 465-467. [42] 杜塞尔多普。,ConversanoC.&公司Van OsB。J.(2010)。同时结合可加性和基于树的回归模型:STIMA。J.计算。图表。统计,19,514-530。 [43] 杜塞尔多夫梅尔曼J。J.(2004)。回归树干法发现治疗协变量相互作用。《心理测量学》,69,355-374·Zbl 1306.62405号 [44] 埃因霍恩。J.(1972)。行为科学中的炼金术。公共运营。夸脱。,36, 367-378. [45] FanG.&公司格雷J。B.(2005)。使用TARGET进行回归树分析。J.计算。图表。统计,14,1-13。 [46] 范杰斯。,苏克士。,莱文R。A.、NunnM。E.和LeBlanc。(2006). 基于分裂优度的相关生存数据树及其在牙齿预后中的应用。J.Amer。统计师。协会,101,959-967·Zbl 1120.62328号 [47] Fisher A.(1936年)。在分类问题中使用多重测量。安。尤金尼。,7(2), 179-188. [48] 弗伦德Y.&夏皮雷。E.(1997)。在线学习的决策理论概括及其在助推中的应用。J.计算。系统。科学。,55(1), 119-139. ·Zbl 0880.68103号 [49] 弗里德曼J。,哈斯蒂·T·&蒂布西拉尼。(2000). 加性logistic回归:关于增长的统计观点。Ann.Stat.,38(2),337-374。 [50] 伽马射线。(2004). 功能树。机器。学习。,55, 219-250. ·Zbl 1469.68084号 [51] 高峰期。,马纳通加。K.和ChenS。(2004). 用多变量生存数据确定预后因素。计算。统计数据分析。,45, 813-824. ·Zbl 1429.62525号 [52] 加格勒。,麦克莱恩。,梅南B。J.&MillardP公司。(2011). 阶段型生存树和混合分布生存树用于聚类患者的住院时间。Informatica,22,57-72。 [53] Gashler.、Giraud‐Carrier公司。G.和MartinezT。R.(2008)。决策树集成:小型异构优于大型同质。第七届机器学习和应用国际会议,第900-905页。华盛顿特区:IEEE计算机协会。 [54] 盖尔克J。(2009). 可伸缩的决策树构造。在《数据库系统百科全书》(Encyclopedia of Database Systems)中,编辑L.Liu(编辑)和T.Ozsu(编辑)第2469-2474页。纽约:斯普林格。 [55] GordonL.&公司奥尔森。A.(1985)。树结构生存分析。癌症治疗。代表,69,1065-1069。 [56] 格雷J。B.和FanG。(2008). 使用TARGET进行分类树分析。计算。统计数据分析。,52, 1362-1372. ·Zbl 1452.62445号 [57] GuertsP.、。,ErnstD.&公司韦亨克尔。(2006). 极度随机的树。机器。学习。,63, 3-42. ·Zbl 1470.68111号 [58] 大厅。,法兰克。,HolmesG.、。,普法林格尔B。,鲁特曼公司维特尼。H.(2009)。WEKA数据挖掘软件:更新。SIGKDD探索,11,10-18。 [59] 哈马姆&拉罗奎德。(2005). 基于分类树的集成方法的实证比较。J.统计计算。模拟。,75, 629-643. ·Zbl 1075.62051号 [60] 哈珀。R.(2005)。医疗决策分类算法的回顾与比较。卫生政策,71,315-331。 [61] 小亨利康。E.G.和FuK.‐第(1969)条。用于模式分类的非参数分割过程。IEEE T.计算。,C‐18,614-624号文件·Zbl 0179.23004号 [62] 霍格林D。C.和VellemanP。F.(1995)。批判性地看一下对大联盟棒球工资的一些分析。美国统计局,49,277-285。 [63] 霍霍恩。,布尔曼。,DudoitS公司。,莫里纳罗A&范德拉恩。J.(2006年a)。生存合奏。生物统计学,7355-373·Zbl 1170.62385号 [64] 霍霍恩。,霍尼克K.&ZeileisA公司。(2006年b)。《无偏递归分区:条件推理框架》,J.Compute。图表。Stat.,第15页,第651-674页。 [65] HothornT.&公司劳森B。(2005). 通过装袋树捆绑分类器。计算。统计数据分析。,49, 1068-1078. ·Zbl 1429.62246号 [66] 霍霍恩。,劳森B。,BennerA和Radespiel‐TrögerM.(2004)。将幸存树木打包。Stat.Med.,23,77-91。 [67] 小吴‐C.和ShihY.‐S.(2007)。多元回归树的分裂变量选择。Stat.遗嘱认证。莱特。,77, 265-271. ·Zbl 1106.62075号 [68] 伊斯瓦兰。,黑石公司。H.、PothierC。E.&LauerM.(2004)。运动心率恢复的相对风险森林作为死亡率的预测因子。J.Amer。统计师。协会,99,591-600·兹比尔1117.62362 [69] 伊什瓦兰。,科加勒鲁。B.、黑石集团。H.&LauerM.(2006)。随机生存森林。附录申请。统计,2841-860·Zbl 1149.62331号 [70] 金华。,卢伊。,斯通K.&黑色D。M.(2004)。基于生存时间方差的生存分析。医学博士。制作,24670-680。 [71] 卡斯格。V.(1980)。用于调查大量分类数据的探索性技术。附录申请。统计,29,119-127。 [72] KimH.和低水位‐Y.(2001)。具有无偏多路分割的分类树。J.Amer。统计师。协会,96,589-604。 [73] KimH.和LohW.‐范围Y.(2003)。二元线性判别节点模型的分类树。J.计算。图表。统计,12,512-530。 [74] KimH.、。,低水位‐Y.,ShihY.‐S.&ChaudhuriP公司。(2007). 具有良好预测能力的可视化和可解释回归模型。IIE交易,39,565-579。 [75] 科诺连科。(1995). 关于估计多值属性的偏差。第14届国际人工智能联合会议,第1034-1040页。马萨诸塞州伯灵顿:Morgan Kaufmann。 [76] 科珀伯格。,BoseS.&斯通C。J.(1997)。多光子回归。J.Amer。统计师。协会,92,117-127·Zbl 0890.62034号 [77] 莱尔德。M.&WareJ公司。H.(1982)。纵向数据的随机效应模型。生物统计学,38963-974·Zbl 0512.62107号 [78] LandwehrN.、HallM.&法兰克。(2005). 物流模型树。机器。学习。,59, 161-205. ·Zbl 1469.68092号 [79] 拉森D。R.&SpeckmanP.公司。L.(2004)。用于分析丰度数据的多元回归树。生物统计学,60543-549·兹比尔1274.62807 [80] 勒布朗&克劳利J。(1992). 截尾生存数据的相对风险树。生物统计学,48,411-425。 [81] 勒布朗&克劳利J。(1993). 幸存的树木靠分裂的好处。J.Amer。统计师。协会,88,457-467·兹比尔0773.62071 [82] LeeP。H.&YuP公司。L.H.(2010)。用于排名数据的基于距离的树模型。计算。统计数据分析。,54, 1672-1682. ·Zbl 1284.62055号 [83] 李·S。K.(2005)。基于GEE的广义多元决策树。计算。统计数据分析。,49, 1105-1119. ·Zbl 1429.62565号 [84] 柠檬。C.、RoyJ.、。,克拉克·M·A、弗里德曼·P。D.和RakowskiW。(2003). 公共卫生分类和回归树分析:方法综述和与逻辑回归的比较。安·贝哈夫。《医学》,第26卷,第172-181页。 [85] 较轻。J.和MargolinB。H.(1971)。分类数据的方差分析。J.Amer。统计师。协会,66,534-544·Zbl 0222.62035号 [86] 黎明时分南部、西部Y.&ShihY.‐S.(2000)。比较了33种新旧分类算法的预测精度、复杂性和训练时间。机器。学习。,40, 203-228. ·Zbl 0969.68669号 [87] 低水位‐Y.(1991)。通过递归分层进行生存建模。计算。统计数据分析。,12, 295-313. ·Zbl 0825.62855号 [88] 低水位‐(2002年)。具有无偏变量选择和交互检测的回归树。中国统计局,12,361-386·Zbl 0998.62042号 [89] 低水位‐Y.(2006年a)。Logistic回归树分析。《工程统计手册》,H.Pham(编辑),第537-549页。纽约:斯普林格 [90] 低水位‐Y.(2006年b)。设计实验的回归树模型。第二届E.L.Lehmann研讨会,第49卷,编辑J.Rojo(编辑)。IMS演讲笔记——专著系列,第210-228页。医学博士贝塞斯达:数理统计研究所·Zbl 1268.62090号 [91] 低水位‐Y.(2008a)。分类和回归树方法。在《质量与可靠性统计百科全书》(Encyclopedia of Statistics In Quality and Reliability)中,编辑F.Ruggeri(ed.)、R.Kenett(ed。英国奇切斯特:Wiley。 [92] 低水位‐Y.(2008b)。按部件回归:使用GUIDE拟合可直观解释的模型。在《数据可视化手册》(Handbook of Data Visualization)中,编辑C.Chen(编辑)、W.Härdle(编辑)和A.Unwin(编辑)。第447-469页。纽约:斯普林格·兹比尔1145.68383 [93] 低水位‐Y.(2009)。提高分类树的精度。附录申请。统计,1710-1737年·Zbl 1184.62109号 [94] 低水位‐Y.(2011)。分类和回归树。威尔逊。Interdiscip公司。版本:数据挖掘和知识光盘。,1, 14-23. [95] LohW.‐范围Y.(2012)。大p、小n问题中的分类和回归变量选择。《概率近似及更高》,第205卷,编辑A.Barbour(编辑)、H.P.Chan(编)和D.Siegmund(编辑)。统计学课程讲稿。第133-157页。纽约:斯普林格。 [96] 低水位‐Y.,ChenC.‐W.和Zheng W。(2007). 线性模型树中的外推错误。ACM事务处理。在知识光盘上。来自数据,1。内政部:10.1145/1267066.1267067。 [97] 低水位‐Y.&ShihY.‐S.(1997)。分类树的拆分选择方法。中国统计局,7815-840·Zbl 1067.62545号 [98] 低水位‐Y.和VanichsetakulN。(1988). 通过广义判别分析进行树结构分类(带讨论)。J.Amer。统计师。协会,83,715-728·Zbl 0649.62055号 [99] LohW.‐范围Y.和Zheng W。(2013). 纵向和多响应数据的回归树。附录申请。统计,7(1),495-522·Zbl 1454.62198号 [100] 梅塞尔W。S.和MichalopoulosD。A.(1973年)。一种用于模式分类和决策树优化的划分算法。IEEE T.计算。,C-22,93-103·Zbl 0248.68043号 [101] 默克莱。C.和ShafferV。A.(2011年)。二元递归分割:背景、方法和心理学应用。英国。数学杂志。统计Psy。,64, 161-181. [102] R和MandellL信使。(1972). 用于预测标称尺度多元分析的模式搜索技术。J.Amer。统计师。协会,67,768-772。 [103] 莫里纳罗。M.、DudoitS.和范德拉恩。J.(2004)。基于树的多元回归和右删失数据的密度估计。《多元分析杂志》。,90, 154-177. ·Zbl 1048.62046号 [104] 摩根J。N.和SonquistJ。A.(1963年)。调查数据分析中的问题,并提出建议。J.Amer。统计师。协会,58,415-434·Zbl 0114.10103中 [105] MurthyS公司。K.(1998)。根据数据自动构建决策树:一项多学科调查。数据最小知识。光盘。,2, 345-389. [106] PayneH。J.&MeiselW公司。S.(1977年)。一种构造最优二叉决策树的算法。IEEE T.计算。,C-26905-916号·Zbl 0363.68131号 [107] PerlichC.、。,教务长F&西蒙诺夫J。S.(2004)。树归纳与逻辑回归:学习曲线分析。J.马赫。学习。研究,4,211-255·Zbl 1093.68088号 [108] PetoR.和佩托J。(1972). 渐近有效的秩不变测试程序。J.R.Stat.Soc.Ser.‐A、 135、185-207年。 [109] 波茨D.&SammutC公司。(2005). 线性模型树的增量学习。机器。学习。,61, 5-48. ·Zbl 1085.68645号 [110] 昆兰J。R.(1986)。决策树的归纳。机器。学习。,1, 81-106. [111] 昆兰J。R.(1992)。通过连续课堂学习。《第五届澳大利亚人工智能联合会议记录》,第343-348页。新加坡:世界科学。 [112] 昆兰J。R.(1993)。C4.5:机器学习程序。加利福尼亚州圣马特奥:Morgan Kaufmann。 [113] R核心团队。(2014). R: 统计计算语言和环境,R统计计算基础。奥地利维也纳。ISBN 3‐900051‐07‐0。 [114] RuschT.&ZeileisA公司。(2013). 通过广义线性模型的递归划分获得洞察力。J.统计计算。模拟。,83(7), 1301-1315. ·Zbl 1431.62317号 [115] SandriM.&公司祖科洛托。(2008). 分类树中基尼变量重要性测度的偏差修正算法。J.计算。图表。统计,17,611-628。 [116] 塞加尔姆。R.(1988)。审查数据的回归树。生物计量学,44,35-47·Zbl 0707.62224号 [117] 塞加尔姆。R.(1992)。纵向数据的树结构方法。J.Amer。统计师。协会,87,407-418。 [118] 塞拉。J.&SimonoffJ。S.(2011年)。Reemtree:具有随机效果的回归树。R包版本0.90.3。 [119] 塞拉。J.&SimonoffJ。S.(2012年)。RE-EM树:一种用于纵向和聚类数据的数据挖掘方法。机器。学习。,86, 169-207. ·Zbl 1238.68131号 [120] 塞提。K.和ChatterjeeB。(1977). 离散变量模式识别问题的高效决策树设计。图案识别。,9, 197-206. ·Zbl 0383.68070号 [121] 嘘。S.(2004)。关于分类树中分裂选择偏差的注记。计算。统计数据分析。,45, 457-466. ·Zbl 1429.62264号 [122] 嘘。S.&TsaiH公司。W.(2004)。具有常数拟合的回归树中的变量选择偏差。计算。统计数据分析。,45, 595-607. ·Zbl 1429.62725号 [123] SmythP.、。,格雷A.&法耶亚杜。M.(1995)。使用核密度估计改进决策树分类器。《第十二届机器学习国际会议论文集》,第506-514页。马萨诸塞州伯灵顿:Morgan Kaufmann。 [124] StroblC.、。,BoulesteixA.和奥古斯丁。(2007a)。基于基尼指数的分类树无偏分割选择。计算。统计数据分析。,52, 483-501. ·Zbl 1452.62469号 [125] StroblC.、。,布列斯特A级。,膝关节。,奥古斯丁ZeileisA公司。(2008). 随机森林的条件变量重要性。BMC生物信息学,9307。 [126] StroblC.、。,布列斯特A级。,ZeileisA和Hothorn公司。(2007b)。随机森林变量重要性度量中的偏差:插图、来源和解决方案。BMC生物信息学,8,25。 [127] StroblC.、。,KopfJ.&ZeileisA公司。(2010). 一种检测Rasch模型中差异项功能的新方法。德国慕尼黑大学统计系技术代表92。 [128] StroblC.、。,MalleyJ.&图兹G。(2009). 递归划分简介:分类和回归树、套袋和随机森林的原理、应用和特征。精神病。方法,14,323-348。 [129] StroblC.、。,WickelmaerF.&公司ZeileisA公司。(2011). 通过递归分区说明布莱德雷-特里模型中的个别差异。J.教育。行为。《统计》,36(2),135-153。 [130] SuX.和范J。(2004). 多元生存树:基于脆弱模型的最大似然方法。生物统计学,60,93-99·Zbl 1130.62386号 [131] 苏克士。G.、WangM.和范J。J.(2004)。最大似然回归树。J.计算。图表。统计,13,586-598。 [132] 塔迪·M。A.、革兰氏。B.和PolsonN。G.(2011)。用于学习和设计的动态树。J.Amer。统计师。协会,106109-123·Zbl 1396.62158号 [133] 塞尔诺。M.和AtkinsonB。(2011). rpart:递归分区,Brian Ripley的R端口。R软件包版本3.1-50。 [134] 托尔戈。(1997). 回归树叶子的函数模型。《第十四届机器学习国际会议论文集》,编辑D.H.Fisher(编辑)。第385-393页。马萨诸塞州伯灵顿:Morgan Kaufmann。 [135] 王毅(WangY.&)威滕一世。H.(1996年)。预测连续类的模型树归纳,工作论文系列,怀卡托大学计算机科学系。 [136] 怀特A。P.和LiuW。Z.(1994)。技术说明:决策树归纳中基于信息的度量的偏差。机器。学习。,15, 321-329. ·Zbl 0942.68718号 [137] 伊尔迪佐。T.和Alpaydin E。(2001). 全变量决策树。IEEE T.神经。网络。,12, 1539-1546. [138] 伊尔迪佐。T.和Alpaydin E。(2005年a)。线性判别树。国际J.图案设计。,19, 323-353. [139] 伊尔迪佐。T.和Alpaydin E。(2005年b)。全变量决策树中的模型选择。机器学习:ECML 2005,Proceedings,Vol.3720,Eds.J.Gama(ed.),R.Camacho(ed。《人工智能讲义》,第473-484页。柏林:Springer‐Verlag。 [140] YuY.和兰伯特D。(1999). 将树拟合到功能数据,并应用于时间模式。J.计算。图表。统计,8749-762。 [141] ZeileisA公司。,HothornT.&公司霍尼克。(2008). 基于模型的递归分区。J.计算。图表。统计,17,492-514。 [142] 张华。(1998). 用于多个二进制响应的分类树。J.Amer。统计人员。协会,93,180-193·Zbl 0906.62130号 [143] 张华&歌手B。H.(2010)。递归分区与应用,第二版,纽约:Springer·Zbl 1271.62016年 [144] 张华&是的。(2008). 一种基于树的方法,用于建模多元有序响应。Stat.及其接口,1169-178·Zbl 1230.62088号 此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。