×

一种提高数据挖掘分类算法准确性的方法。 (英语) Zbl 1160.91325号

摘要:我们介绍了一种称为CL.E.D.M.(CLassification through ELECTRE and Data Mining)的方法,该方法利用了ELECTREI分级方法的方法框架,旨在提高现有数据挖掘分类算法的准确性。特别是,该方法选择从数据挖掘分类算法的训练过程中提取的最佳决策规则,然后将与这些规则对应的类分配给必须分类的对象。在五个不同的广泛使用的数据库中测试了三种著名的数据挖掘分类算法,以验证该方法的鲁棒性。

MSC公司:

91B06型 决策理论
90B50型 管理决策,包括多个目标
第60页 统计学在工程和工业中的应用;控制图
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] 法耶兹,U.M。;Piatetsky-Shapiro,G。;Smyth,P.,《知识发现和数据挖掘进展》(1996),AAAI出版社/MIT出版社:AAAI Press/MIT Press Cambridge
[2] Quinlan,J.,决策树归纳,机器学习,185-106(1986)
[3] Quinlan,J.,C4.5:机器学习程序(1993),Morgan Kaufmann:Morgan Koufmann California
[4] 克拉克·P。;Niblett,T.,CN2归纳算法,机器学习,3,4261-283(1989)
[5] Boutsinas B,Antzoulatos G,Alevizos P.一种基于聚类的新型分类算法。In:第一届国际会议“从科学计算到计算工程”,希腊雅典,2004年。;Boutsinas B,Antzoulatos G,Alevizos P.一种基于聚类的新型分类算法。载于:第一届国际会议“从科学计算到计算工程”,希腊雅典,2004年。
[6] 布莱曼,L。;弗里德曼,J.H。;Olshen,R.A。;Stone,C.J.,《分类和回归树》(1984),《华兹华斯和布鲁克斯:华兹华思和布鲁克斯加利福尼亚》
[7] Freitas,A.A.,《用于数据挖掘和知识发现的进化算法调查》(Ghosh,A.;Tsutsui,S.,《进化计算的进展》(2002),Springer:Springer-Berlin)·兹比尔1013.68075
[8] Friedman,J.H.,《多元自适应回归样条曲线》,《统计年鉴》,19,1,1-141(1991)·Zbl 0765.62064号
[9] 发现知识的图形模型。收录人:Fayyad UM、Piatetsky-Shapiro G、Smyth P,编辑。知识发现和数据挖掘的进展。1996年,第59-82页。;发现知识的图形模型。收件人:Fayyad UM,Piatetsky-Shapiro G,Smyth P,编辑。知识发现和数据挖掘的进展。1996年,第59-82页。
[10] Rumelhart,D.E。;辛顿,G.E。;Williams,R.J.,《通过错误传播学习内部表征》(Rumelhart,D.E.;McClelland,J.L.,《并行分布式处理:认知微观结构的探索》(1986),麻省理工学院出版社:麻省理学院出版社剑桥),318-363
[11] 成本,S。;Salzberg,S.,用于符号特征学习的加权最近邻算法,机器学习,10,57-78(1993)
[12] Dzeroski S.数据库中的归纳逻辑编程和知识发现。收录人:Fayyad UM、Piatetsky-Shapiro G、Smyth P,编辑。知识发现和数据挖掘的进展。1996年,第117-52页。;Dzeroski S.数据库中的归纳逻辑编程和知识发现。收录人:Fayyad UM、Piatetsky-Shapiro G、Smyth P,编辑。知识发现和数据挖掘的进展。1996年,第117-52页。
[13] Muggleton,S.,《归纳逻辑编程》,A.P.I.C系列38(1992),学术出版社:伦敦学术出版社
[14] Boutsinas,B。;Vrahatis,M.N.,人工非单调神经网络,人工智能,132,1,1-38(2001)·兹伯利0983.68151
[15] Vapnik,V.N.,《统计学习理论》(1998),威利出版社:威利纽约·Zbl 0934.62009号
[16] Vapnik,V.N.,《统计学习理论的本质》(2000),施普林格出版社:纽约施普林格·Zbl 0934.62009号
[17] 沃夫克,V。;Gammerman,A。;Shafer,G.,《随机世界中的算法学习》(2005),Springer:Springer New York·Zbl 1105.68052号
[18] 弗里德曼,N。;盖革,D。;Goldsmidt,M.,贝叶斯网络分类器,机器学习,29,2131-163(1997)·Zbl 0892.68077号
[19] 安德鲁斯,R。;Diederich,J。;Tickle,A.B.,《从训练好的人工神经网络中提取规则的技术的调查与评论》,基于知识的系统,8373-389(1995)
[20] Quinlan J.从决策树生成生产规则。摘自:第十届IJCAI会议记录。1987年,第304-7页。;Quinlan J.从决策树生成生产规则。在:第十届国际癌症联合会会议记录。1987年,第304-7页。
[21] Bouyssou,D.,Outranking methods,(Floudas,C.A.;Pardalos,P.M.,Encyclopedia of optimization,vol.4(2001),Kluwer:Kluwer-Dordrecht),249-255
[22] Figueira,J。;穆索,V。;Roy,B.,Electre方法,(Figueira,J.;Greco,S.;Ehrogott,M.,多标准决策分析:现状调查(2005),Springer:Springer New York),133-153·Zbl 1072.90531号
[23] Pirlot,M.,《描述某些排名靠前方法的通用框架》,《多标准决策分析杂志》,第6期,第86-92页(1997年)·Zbl 0890.90117号
[24] 罗伊B,贝蒂尔P.拉法ELECTRE II,une methode de classement en presence de criteres multiples。生产记录142。巴黎:科学方向,塞马;1971.; 罗伊B,贝蒂尔P.拉法ELECTRE II,une methode de classement en presence de criteres multiples。生产记录142。巴黎:科学方向,塞马;1971
[25] 罗伊,B.,《多元观点的分类与选择:选择的方法》,RIRO,8,57-75(1968)
[26] Roy,B.,《决策辅助的多准则方法》(1996年),Kluwer学术出版社:Kluwer-学术出版社Dordrecht·Zbl 0893.90108号
[27] 罗伊,B.,《排名靠前的方法和选择方法的基础,理论与决策》,31,49-73(1991)
[28] Flach,P.A。;Lavrac,N.,《规则归纳》(Berthold,M.;Hand,D.J.,《智能数据分析:简介》(2003),施普林格:施普林格柏林),229-267
[29] Lavrac N,Flach P,Zupan B。规则评估措施:统一观点。摘自:第九届归纳逻辑编程国际研讨会论文集(ILP’99),1999年。第174-85页。;Lavrac N,Flach P,Zupan B。规则评估措施:统一观点。在:《归纳逻辑编程第九届国际研讨会论文集》(ILP'99),1999年。第174-85页。
[30] Tsumoto S.规则归纳中准确性和覆盖率的特征。收录:计算机科学课堂讲稿。2003年,第237-44页。;Tsumoto S.规则归纳中准确性和覆盖率的特征。收录:计算机科学课堂讲稿。2003年,第237-44页·Zbl 1026.68659号
[31] 北卡罗来纳州贝拉塞尔。;Boulassel,M.R.,《多标准分类模糊分类程序PROCFTN:方法学和医学应用》,模糊集与系统,141,2203-217(2004)·2014年9月10日
[32] Greco,S。;马塔拉佐,B。;Slowinski,R.,《多准则决策分析的粗糙集理论》,《欧洲运筹学杂志》,129,1,1-47(2001)·Zbl 1008.91016号
[33] Greco,S。;马塔拉佐,B。;Slowinski,R.,粗糙集和模糊集在MCDM中的使用,(Gal,T.;Stewart,T.;Hanne,T.,多标准决策进展(1999),Kluwer学术出版社:Kluwer学术出版社波士顿,多德雷赫特,伦敦),第14.1-59页
[34] 斯洛文斯基,R。;Stefanowski,J.,《带值贴近关系的粗分类》(Diday,E.等,《分类和数据分析的新方法》(1994),施普林格出版社:施普林格-柏林),482-488
[35] Fayyad UM,伊朗KB。用于分类学习的连续值属性的多间隔离散化。摘自:《国际人工智能联合会议论文集》(IJCAI-93),1993年。第1022-9页。;Fayyad UM,伊朗KB。用于分类学习的连续值属性的多间隔离散化。摘自:《国际人工智能联合会议论文集》(IJCAI-93),1993年。第1022-9页。
[36] Gallier,J.H.,《计算机科学的逻辑:自动定理证明的基础》(2003),威利出版社,纽约
[37] Huang,Z.,用分类值聚类大数据集的(k)均值算法的扩展,数据挖掘和知识发现,259-77(1998)
[38] Aha D,Murphy P.UCI机器学习数据库知识库。网址:⟨网址:http://www.ics.uci.edu/mlearn/MLRepository.html;Aha D,Murphy P.UCI机器学习数据库知识库。网址:⟨网址:http://www.ics.uci.edu/mlearn/MLRepository.html
[39] Watson,J.D。;新罕布什尔州霍普金斯。;罗伯茨,J.W。;斯泰兹,J.A。;Weiner,A.M.,《基因的分子生物学》,第1卷(1987年),《门洛帕克:门洛帕克本杰明·卡明斯》
[40] Bennett,K.P。;Mangasarian,O.L.,两个线性不可分集的鲁棒线性规划判别,优化方法和软件,1,23-34(1992)
[41] Bohanec M,Rajkovic V.多属性决策的知识获取和解释。参加:第八届专家系统及其应用国际研讨会,法国阿维尼翁,1988年。第59-78页。;Bohanec M,Rajkovic V.多属性决策的知识获取和解释。参加:第八届专家系统及其应用国际研讨会,法国阿维尼翁,1988年。第59-78页。
[42] Shyu ML,Kuruppu Appuhamilage IP,Chen SC,Chang L.通过条件集的分解处理缺失值。摘自:2005年IRI会议记录。第199-204页。;Shyu ML,Kuruppu-Apphuhamilage IP,Chen SC,Chang L.通过条件集分解处理缺失值。摘自:2005年IRI会议记录。第199-204页。
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。