B.钱德拉。;保罗·瓦尔盖塞 转向高效的决策树构建。 (英语) Zbl 1183.68523号 信息科学。 179,第8期,1059-1069(2009). 摘要:出于构造紧凑决策树(根据到达决策所需的预期长度)的愿望,我们提出了一种新的用于决策树构造的节点分裂度量。我们证明了所提出的度量是凸的和累积的,并将其用于构建分类决策树。从UCI存储库中的多个数据集获得的结果表明,所提出的度量结果生成的决策树更紧凑,分类精度与使用常用节点分裂度量(如增益比和基尼指数)获得的分类精度相当。 引用于4文件 MSC公司: 68吨10 模式识别、语音识别 68T05型 人工智能中的学习和自适应系统 68T20型 人工智能背景下的问题解决(启发式、搜索策略等) 关键词:决策树;基尼系数;增益比;分割度量 软件:UCI-毫升;4.5条;SLIQ公司;冲刺 PDF格式BibTeX公司 XML格式引用 \textit{B.Chandra}和\textit{P.Varghese},信息科学。179,第8号,1059--1069(2009;Zbl 1183.68523) 全文: 内政部 参考文献: [1] K.Alsabti,S.Ranka,V.Singh,《云:大型数据集的决策树分类器》,KDD,1998年,第2-8页。;K.Alsabti,S.Ranka,V.Singh,《云:大型数据集的决策树分类器》,KDD,1998年,第2-8页。 [2] 布雷曼,L。;弗里德曼,J.H。;奥尔森,R.A。;Stone,C.J.,《分类和回归树》(1984年),华兹华斯国际 [3] Breiman,L.,分裂准则的一些性质,机器学习,24,41-47(1996)·Zbl 0849.68095号 [4] B.Chandra,S.Mazumdar,V.Arena,N.Parimi,Elegant Decision Tree Algorithm,摘自:《第三届信息系统工程国际会议(研讨会)论文集》,IEEE CS,2002年,第160-169页。;B.Chandra、S.Mazumdar、V.Arena、N.Parimi,《优雅决策树算法》,收录于:《第三届信息系统工程国际会议论文集(研讨会)》,IEEE CS,2002年,第160-169页。 [5] B.Chandra,P.Paul,《关于提高SLIQ决策树算法的效率》,载于:IJCNN-2007,IEEE,2007年,第66-71页。;B.Chandra,P.Paul,《关于提高SLIQ决策树算法的效率》,载于:IJCNN-2007,IEEE,2007年,第66-71页。 [6] C.W.Codrington,C.E.Brodley,《基于杂质的分裂规则的定性行为I:最小自由性质》,普渡大学技术报告,1997-051997年。;C.W.Codrington,C.E.Brodley,《基于杂质的分裂规则的定性行为I:最小自由性质》,普渡大学技术报告,1997-051997年。 [7] W.Dianhong,J.Liangxiao,决策树归纳的一种改进的属性选择方法,载《第四届模糊系统与知识发现国际会议论文集》(FSKD 2007),2007年第4卷,第654-658页。;W.Dianhong,J.Liangxiao,《决策树归纳的改进属性选择方法》,载《第四届模糊系统与知识发现国际会议论文集》(FSKD 2007),2007年第4卷,第654-658页。 [8] 丁世飞;石忠志,基于信息熵的关联模式识别研究,信息科学学报,31,6497-502(2005) [9] 董,M。;Kothari,R.,基于前瞻性的模糊决策树归纳,IEEE模糊系统汇刊,9,3,461-468(2001) [10] Elomaa,T。;Rousu,J.,《关于重要属性评估函数的良好表现》(Grahne,G.,《第六次扫描会议论文集》,人工智能会议(1997年),IOS出版社:IOS出版社阿姆斯特丹)·Zbl 0890.68114号 [11] Elomma,T。;Rousu,J.,数值属性的一般和有效多重分割,机器学习,1-49(1999) [12] 法耶兹,U.M。;Irani,K.B.,《决策树生成中连续值属性的处理》,机器学习,8,87-102(1992)·Zbl 0767.68084号 [13] 法耶兹,U.M。;Irani,K.B.,用于分类学习的连续值属性的多区间离散化,(第十三届国际人工智能联合会议论文集(1993),Morgan Kaufmann:Morgan Koufmann San Francisco,CA),1022-1027 [14] Jun,B.H。;Kim,C.S。;Song,H.,用于生成决策树的属性选择和离散化的新标准,IEEE模式分析和机器智能汇刊,19,121371-1375(1997) [15] 科塔里,R。;Dong,M.,《分类决策树:综述和一些新结果》,(模式识别讲义(2001),世界科学出版公司:新加坡世界科学出版社) [16] 李毅。;Dong,Y。;Kothari,R.,基于分类的全变量决策树,IEEE神经网络学报,16,6,1547-1560(2005) [17] M.Mehta,R.Agrawal,J.Riassnen,《SLIQ:数据挖掘的快速可扩展分类器》,载于:Extending Database Technology,Avignon,France,1996年。;M.Mehta,R.Agrawal,J.Riassnen,《SLIQ:数据挖掘的快速可扩展分类器》,载于:Extending Database Technology,Avignon,France,1996年。 [18] Mitchell,T.M.,《机器学习》(1997),McGraw-Hill International·Zbl 0913.68167号 [19] Mingers,J.,《专家系统归纳规则——统计方面》,《专业统计学家》,第5期,第19-24页(1986年) [20] Mingers,J.,《决策树归纳选择度量的实证比较》,机器学习,3,319-342(1989) [21] Murthy,S.K。;Salzberg,S.,《决策树归纳中的前瞻与病理学》,(第十四届国际人工智能联合会议论文集(1995),Morgan Kaufmann),1025-1031 [22] Quinlan,J.R.,《学习有效分类程序及其在国际象棋终局中的应用》(Michalshi,R.S.;Carbonell,JG.;Mitchell,T.M.,《机器学习:人工智能方法》(1983),Morgan Kaufmann) [23] Quinlan,J.R.,决策树归纳,机器学习,81-106(1986) [24] Quinlan,J.R.,C4.5:机器学习计划(1993),Morgan Kaufmann:Morgan Koufmann San Mateo,California [25] Quinlan,J.R.,C4.5中连续属性的改进使用,《人工智能研究杂志》,4,77-90(1996)·Zbl 0900.68112号 [26] R.Rastogi,K.Shim,Public:一种集成了构建和修剪的决策树分类器,收录于:《第24届超大数据库国际会议论文集》,1998年,第404-415页。;R.Rastogi,K.Shim,Public:一种集成了构建和修剪的决策树分类器,收录于:《第24届超大数据库国际会议论文集》,1998年,第404-415页·Zbl 1060.68589号 [27] Ruggieri,S.,高效C4.5[分类算法],IEEE知识与数据工程学报,14,2,438-444(2002) [28] Saffavian,S.R。;Landgrebe,D.,决策树分类器方法的调查,IEEE系统、人与控制论汇刊,21,3,660-674(1991) [29] 英国萨尔卡。;查克拉巴蒂,P.P。;Ghose,S。;DeSarkar,S.C.,《通过查找搜索改进贪婪算法》,《算法杂志》,16,1,1-23(1994)·兹比尔0803.68124 [30] J.C.Shafer、R.Agarwal、M.Mehta,《SPRINT:数据挖掘的可扩展并行分类器》,载《第24届超大数据库国际会议论文集》,1996年。;J.C.Shafer、R.Agarwal、M.Mehta,《SPRINT:数据挖掘的可扩展并行分类器》,载于《第24届超大数据库国际会议论文集》,1996年。 [31] H.Wang,C.Zaniolo,《CMP:使用多元预测的快速决策树分类器》,载于:《第十六届国际数据工程会议论文集》,IEEE,2000年,第449-460页。;H.Wang,C.Zaniolo,《CMP:使用多元预测的快速决策树分类器》,载于:《第16届国际数据工程会议论文集》,IEEE,2000年,第449-460页。 [32] Yasuhiko,Morimoto,用于分类数据库二进制分割的属性值组查找算法,IEEE知识与数据工程汇刊,14,6,1269-1279(2002) [33] 姚振中,刘鹏,雷磊,尹建军,R_C4.5决策树模型及其在医疗数据集中的应用,载于:《国际服务系统与服务管理会议论文集》,第2卷,13-15,IEEE,2005年,第1099-1103页。;姚振中,刘鹏,雷立群,尹建群,R_C4.5决策树模型及其在医疗数据集中的应用,载于:《国际服务系统与服务管理会议论文集》,第2卷,13-15,IEEE,2005年,第1099-1103页。 此参考列表基于出版商或数字数学图书馆提供的信息。它的项目与zbMATH标识符启发式匹配,并且可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。