×

转向高效的决策树构建。 (英语) Zbl 1183.68523号

摘要:出于构造紧凑决策树(根据到达决策所需的预期长度)的愿望,我们提出了一种新的用于决策树构造的节点分裂度量。我们证明了所提出的度量是凸的和累积的,并将其用于构建分类决策树。从UCI存储库中的多个数据集获得的结果表明,所提出的度量结果生成的决策树更紧凑,分类精度与使用常用节点分裂度量(如增益比和基尼指数)获得的分类精度相当。

MSC公司:

68吨10 模式识别、语音识别
68T05型 人工智能中的学习和自适应系统
68T20型 人工智能背景下的问题解决(启发式、搜索策略等)
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] K.Alsabti,S.Ranka,V.Singh,《云:大型数据集的决策树分类器》,KDD,1998年,第2-8页。;K.Alsabti,S.Ranka,V.Singh,《云:大型数据集的决策树分类器》,KDD,1998年,第2-8页。
[2] 布雷曼,L。;弗里德曼,J.H。;奥尔森,R.A。;Stone,C.J.,《分类和回归树》(1984年),华兹华斯国际
[3] Breiman,L.,分裂准则的一些性质,机器学习,24,41-47(1996)·Zbl 0849.68095号
[4] B.Chandra,S.Mazumdar,V.Arena,N.Parimi,Elegant Decision Tree Algorithm,摘自:《第三届信息系统工程国际会议(研讨会)论文集》,IEEE CS,2002年,第160-169页。;B.Chandra、S.Mazumdar、V.Arena、N.Parimi,《优雅决策树算法》,收录于:《第三届信息系统工程国际会议论文集(研讨会)》,IEEE CS,2002年,第160-169页。
[5] B.Chandra,P.Paul,《关于提高SLIQ决策树算法的效率》,载于:IJCNN-2007,IEEE,2007年,第66-71页。;B.Chandra,P.Paul,《关于提高SLIQ决策树算法的效率》,载于:IJCNN-2007,IEEE,2007年,第66-71页。
[6] C.W.Codrington,C.E.Brodley,《基于杂质的分裂规则的定性行为I:最小自由性质》,普渡大学技术报告,1997-051997年。;C.W.Codrington,C.E.Brodley,《基于杂质的分裂规则的定性行为I:最小自由性质》,普渡大学技术报告,1997-051997年。
[7] W.Dianhong,J.Liangxiao,决策树归纳的一种改进的属性选择方法,载《第四届模糊系统与知识发现国际会议论文集》(FSKD 2007),2007年第4卷,第654-658页。;W.Dianhong,J.Liangxiao,《决策树归纳的改进属性选择方法》,载《第四届模糊系统与知识发现国际会议论文集》(FSKD 2007),2007年第4卷,第654-658页。
[8] 丁世飞;石忠志,基于信息熵的关联模式识别研究,信息科学学报,31,6497-502(2005)
[9] 董,M。;Kothari,R.,基于前瞻性的模糊决策树归纳,IEEE模糊系统汇刊,9,3,461-468(2001)
[10] Elomaa,T。;Rousu,J.,《关于重要属性评估函数的良好表现》(Grahne,G.,《第六次扫描会议论文集》,人工智能会议(1997年),IOS出版社:IOS出版社阿姆斯特丹)·Zbl 0890.68114号
[11] Elomma,T。;Rousu,J.,数值属性的一般和有效多重分割,机器学习,1-49(1999)
[12] 法耶兹,U.M。;Irani,K.B.,《决策树生成中连续值属性的处理》,机器学习,8,87-102(1992)·Zbl 0767.68084号
[13] 法耶兹,U.M。;Irani,K.B.,用于分类学习的连续值属性的多区间离散化,(第十三届国际人工智能联合会议论文集(1993),Morgan Kaufmann:Morgan Koufmann San Francisco,CA),1022-1027
[14] Jun,B.H。;Kim,C.S。;Song,H.,用于生成决策树的属性选择和离散化的新标准,IEEE模式分析和机器智能汇刊,19,121371-1375(1997)
[15] 科塔里,R。;Dong,M.,《分类决策树:综述和一些新结果》,(模式识别讲义(2001),世界科学出版公司:新加坡世界科学出版社)
[16] 李毅。;Dong,Y。;Kothari,R.,基于分类的全变量决策树,IEEE神经网络学报,16,6,1547-1560(2005)
[17] M.Mehta,R.Agrawal,J.Riassnen,《SLIQ:数据挖掘的快速可扩展分类器》,载于:Extending Database Technology,Avignon,France,1996年。;M.Mehta,R.Agrawal,J.Riassnen,《SLIQ:数据挖掘的快速可扩展分类器》,载于:Extending Database Technology,Avignon,France,1996年。
[18] Mitchell,T.M.,《机器学习》(1997),McGraw-Hill International·Zbl 0913.68167号
[19] Mingers,J.,《专家系统归纳规则——统计方面》,《专业统计学家》,第5期,第19-24页(1986年)
[20] Mingers,J.,《决策树归纳选择度量的实证比较》,机器学习,3,319-342(1989)
[21] Murthy,S.K。;Salzberg,S.,《决策树归纳中的前瞻与病理学》,(第十四届国际人工智能联合会议论文集(1995),Morgan Kaufmann),1025-1031
[22] Quinlan,J.R.,《学习有效分类程序及其在国际象棋终局中的应用》(Michalshi,R.S.;Carbonell,JG.;Mitchell,T.M.,《机器学习:人工智能方法》(1983),Morgan Kaufmann)
[23] Quinlan,J.R.,决策树归纳,机器学习,81-106(1986)
[24] Quinlan,J.R.,C4.5:机器学习计划(1993),Morgan Kaufmann:Morgan Koufmann San Mateo,California
[25] Quinlan,J.R.,C4.5中连续属性的改进使用,《人工智能研究杂志》,4,77-90(1996)·Zbl 0900.68112号
[26] R.Rastogi,K.Shim,Public:一种集成了构建和修剪的决策树分类器,收录于:《第24届超大数据库国际会议论文集》,1998年,第404-415页。;R.Rastogi,K.Shim,Public:一种集成了构建和修剪的决策树分类器,收录于:《第24届超大数据库国际会议论文集》,1998年,第404-415页·Zbl 1060.68589号
[27] Ruggieri,S.,高效C4.5[分类算法],IEEE知识与数据工程学报,14,2,438-444(2002)
[28] Saffavian,S.R。;Landgrebe,D.,决策树分类器方法的调查,IEEE系统、人与控制论汇刊,21,3,660-674(1991)
[29] 英国萨尔卡。;查克拉巴蒂,P.P。;Ghose,S。;DeSarkar,S.C.,《通过查找搜索改进贪婪算法》,《算法杂志》,16,1,1-23(1994)·兹比尔0803.68124
[30] J.C.Shafer、R.Agarwal、M.Mehta,《SPRINT:数据挖掘的可扩展并行分类器》,载《第24届超大数据库国际会议论文集》,1996年。;J.C.Shafer、R.Agarwal、M.Mehta,《SPRINT:数据挖掘的可扩展并行分类器》,载于《第24届超大数据库国际会议论文集》,1996年。
[31] H.Wang,C.Zaniolo,《CMP:使用多元预测的快速决策树分类器》,载于:《第十六届国际数据工程会议论文集》,IEEE,2000年,第449-460页。;H.Wang,C.Zaniolo,《CMP:使用多元预测的快速决策树分类器》,载于:《第16届国际数据工程会议论文集》,IEEE,2000年,第449-460页。
[32] Yasuhiko,Morimoto,用于分类数据库二进制分割的属性值组查找算法,IEEE知识与数据工程汇刊,14,6,1269-1279(2002)
[33] 姚振中,刘鹏,雷磊,尹建军,R_C4.5决策树模型及其在医疗数据集中的应用,载于:《国际服务系统与服务管理会议论文集》,第2卷,13-15,IEEE,2005年,第1099-1103页。;姚振中,刘鹏,雷立群,尹建群,R_C4.5决策树模型及其在医疗数据集中的应用,载于:《国际服务系统与服务管理会议论文集》,第2卷,13-15,IEEE,2005年,第1099-1103页。
此参考列表基于出版商或数字数学图书馆提供的信息。它的项目与zbMATH标识符启发式匹配,并且可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。