×

包含消解:一种有效的半朴素贝叶斯学习技术。 (英语) Zbl 1238.68138号

摘要:半主动贝叶斯技术通过放松属性独立性假设来提高主动贝叶s(NB)的准确性。我们提出了一种新的半朴素贝叶斯运算——包含分解(SR),它可以有效地识别专业化-泛化关系的出现,并在分类时消除泛化。我们将SR扩展到近包容分解(NSR),以删除除泛化之外的近泛化。我们开发了两个版本的SR:一个版本在训练期间执行SR,称为急切SR(ESR),另一个版本则在测试过程中执行SR(LSR)。我们研究了ESR、LSR、NSR和传统属性消除(BSE)对NB和平均单相关估计量(AODE)的影响,后者是NB的有力替代方法。BSE对NB和AODE施加了非常高的训练时间开销,伴随着分类时间开销的不同减少。ESR、LSR和NSR给NB带来了很高的训练时间和测试时间开销。然而,LSR没有对AODE施加额外的训练时间开销,只有适度的测试时间开销,而ESR和NSR对AODE施加适度的训练和测试时间开销。我们对60个UCI数据集进行了广泛的实验比较,结果表明,将BSE、LSR或NSR应用于NB可以显著改善零位损耗和RMSE,而将BSE,ESR或NSR应用于AODE可以显著提高零位损耗,RMSE,将LSR应用于AOED可以显著改善零位损耗。Friedman检验和Nemenyi检验表明,具有ESR或NSR的AODE与逻辑回归相比具有显著的零损失和RMSE优势,与Weka的基于分类数据网格参数搜索的LibSVM实现相比具有零损失优势。具有LSR的AODE与Logistic回归相比具有零损失优势,与LibSVM相比具有可比的零损失。最后,我们检查了在何种情况下消除近概化证明是有益的。

MSC公司:

68T05型 人工智能中的学习和自适应系统
62小时30分 分类和区分;聚类分析(统计方面)
PDF格式BibTeX公司 XML格式引用
全文: DOI程序

参考文献:

[1] Cerquides,J。;Mántaras,R.L.D.,稳健贝叶斯线性分类器集成,70-81(2005)
[2] Cestnik,B.,《估计概率:机器学习中的一项关键任务》,147-149(1990),伦敦
[3] Dash,D。;Cooper,G.F.,用朴素贝叶斯分类器进行精确模型平均,91-98(2002),圣马特奥
[4] Raedt,L。;Sammut,C.(编辑);Webb,G.I.(编辑),《普遍性逻辑》,624-631(2010),纽约
[5] Raedt,L.D。;Sammut,C.(编辑);Webb,G.I.(编辑),《归纳逻辑编程》,529-537(2010),纽约
[6] Demšar,J.(2006年)。多个数据集上分类器的统计比较。机器学习研究杂志,7,1-30·Zbl 1222.68184号
[7] 多明戈斯,P。;Pazzani,M.J.,《超越独立性:简单贝叶斯分类器的优化条件》,105-112(1996),圣马特奥
[8] Duda,R.O.和Hart,P.E.(1973年)。模式分类和场景分析。纽约:Wiley·Zbl 0277.68056号
[9] 法耶兹,U.M。;Irani,K.B.,用于分类学习的连续值属性的多区间离散化,1022-1029(1993),San Mateo
[10] 弗洛雷斯,M。;Gámez,J。;马丁内斯。;Puerta,J.、GAODE和HAODE:基于AODE处理连续变量的两项提案,313-320(2009)
[11] E.弗兰克。;霍尔,M。;Pfahringer,B.,《局部加权天真贝叶斯》,249-256(2003),圣马特奥
[12] 弗里德曼(1937)。使用秩来避免方差分析中隐含的正态假设。《美国统计协会杂志》,32(200),675-701·doi:10.2307/2279372
[13] 弗里德曼M.(1940)。m排名问题显著性替代测试的比较。《美国统计协会杂志》,11(1),86-92·Zbl 0063.01455号
[14] Friedman,N.、Geiger,D.和Goldszmidt,M.(1997)。贝叶斯网络分类器。机器学习,29(2),131-163·Zbl 0892.68077号 ·doi:10.1023/A:1007465528199
[15] Gama,J.(2003年)。迭代贝叶斯。理论计算机科学,292(2),417-430·Zbl 1026.68071号 ·doi:10.1016/S0304-3975(02)00179-2
[16] Hand,D.J.和Yu,K.(2001年)。白痴贝叶斯:毕竟不那么愚蠢吗?《国际统计评论》,69(3),385-398·Zbl 1213.62010年 ·doi:10.1111/j.1751-5823.2001.tb00465.x
[17] Hastie,T.、Tibshirani,R.和Friedman,J.(2001)。统计学习的要素:数据挖掘、推理和预测。纽约:施普林格·Zbl 0973.62007号
[18] 希尔登,J。;Bjerregaard,B。;Dombal,F.T.(编辑);Gremy,F.(编辑),计算机辅助诊断和非典型病例,365-378(1976),阿姆斯特丹
[19] 伊曼·R·L。;Davenport,J.M.,弗里德曼统计临界区的近似,571-595(1980)·Zbl 0451.62061号
[20] Keogh,E.J。;Pazzani,M.J.,《学习增强贝叶斯分类器:基于分布和基于分类方法的比较》,225-230(1999)
[21] Kittler,J。;Young,T.Y.(编辑);Fu,K.-S.(编辑),特征选择和提取(1986),纽约
[22] Kohavi,R.,《提升天真贝叶斯分类器的准确性:决策树混合》,202-207(1996)
[23] Kohavi,R。;Wolpert,D.,零损失函数的偏差加方差分解,275-283(1996),旧金山
[24] 科诺连科,I。;Wielinga,B.(编辑);Boose,J.(编辑);Gaines,B.(编辑);Schreiber,G.(编辑);Someren,M.(ed.),归纳和朴素贝叶斯学习方法对自动知识获取的比较(1990),阿姆斯特丹
[25] Kononenko,I.,半主动贝叶斯分类器,206-219(1991),柏林
[26] Langley,P.,递归贝叶斯分类器的归纳,153-164(1993),柏林
[27] 兰利,P。;Sage,S.,选择性贝叶斯分类器的归纳,399-406(1994),圣马特奥
[28] 兰利,P。;伊巴·W。;汤普森,K.,《贝叶斯分类器分析》,223-228(1992),门洛·帕克
[29] Langseth,H.和Nielsen,T.D.(2006年)。使用分层朴素贝叶斯模型进行分类。机器学习,63(2),135-159(1994)·兹比尔1110.68130 ·文件编号:10.1007/s10994-006-6136-2
[30] Lewis,D.D.,《四十岁的朴素贝叶斯:信息检索中的独立性假设》,4-15(1998),柏林
[31] Mitchell,T.(1997)。机器学习。纽约:McGraw Hill·Zbl 0913.68167号
[32] Newman,D.、Hettich,S.、Blake,C.和Merz,C.(1998年)。机器学习数据库的UCI存储库。欧文:加利福尼亚大学信息与计算机科学系。
[33] Pazzani,M.J.,笛卡尔产品属性的构造归纳,66-77(1996)
[34] Platt,J.C.,支持向量机的概率输出以及与正则化似然方法的比较(1999),剑桥
[35] Sahami,M.,《学习有限依赖性贝叶斯分类器》,334-338(1996),门洛·帕克
[36] Webb,G.I.(2000)。多重助推:一种将助推和摇摆相结合的技术。机器学习,40(2),159-196·doi:10.1023/A:1007659514849
[37] 韦伯,G.I。;Pazzani,M.J.,调整概率朴素贝叶斯归纳法,285-295(1998),柏林
[38] Webb,G.I.、Boughton,J.和Wang,Z.(2005)。不那么天真的贝叶斯:聚合单依赖估计量。机器学习,58(1),5-24·Zbl 1075.68078号 ·doi:10.1007/s10994-005-4258-6
[39] Webb,G.I.、Boughton,J.、Zheng,F.、Ting,K.M.和Salem,H.(2011年)。从边际到全多元概率分布的外推学习:朴素贝叶斯分类递减。机器学习。doi:10.1007/s10994-011-5263-6·兹比尔1238.68136 ·doi:10.1007/s10994-011-5263-6
[40] Witten,I.H.和Frank,E.(2005)。数据挖掘:实用的机器学习工具和技术。圣马特奥:摩根·考夫曼·Zbl 1076.68555号
[41] 扎德罗兹尼,B。;Elkan,C.,从决策树和朴素贝叶斯分类器中获取校准概率估计,609-616(2001),旧金山
[42] 扎德罗兹尼,B。;Elkan,C.,《将分类器得分转化为准确的多类概率估计》,694-699(2002),纽约·数字对象标识代码:10.1145/775047.75151
[43] Zhang,N.L.、Nielsen,T.D.和Jensen,F.V.(2004)。分类模型中的潜在变量发现。《医学中的人工智能》,30(3),283-299·doi:10.1016/j.artmed.2003.11.004
[44] 张,H。;江,L。;Su,J.,《隐藏的朴素贝叶斯》,919-924(2005),门罗公园
[45] Zheng,&Webb,G.I.(2000)。贝叶斯规则的懒惰学习。机器学习,41(1),53-84·doi:10.1023/A:1007613203719
[46] 郑,F。;Webb,G.I.,分类学习中半朴素贝叶斯方法的比较研究,141-156(2005)
[47] 郑,F。;Webb,G.I.,平均一相依估计量的有效惰性消除,1113-1120(2006),纽约
[48] 郑,F。;Webb,G.I.,《寻找正确的家庭:平均单依赖估计量的父母和孩子选择》,490-501(2007),柏林
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。