×

特征子集选择的包装器。 (英语) 兹伯利0904.68143

摘要:在特征子集选择问题中,学习算法面临的问题是选择关注的相关特征子集,而忽略其余特征子集。为了在特定训练集上使用特定学习算法获得最佳性能,特征子集选择方法应该考虑算法和训练集如何交互。我们探讨了最佳特征子集选择与相关性之间的关系。我们的包装器方法搜索针对特定算法和域定制的最优特征子集。我们研究了包装器方法的优缺点,并展示了一系列改进的设计。我们将包装器方法与无特征子集选择的归纳法和Relief进行了比较,Relief是一种过滤方法,用于特征子集选择。对于所使用的两类归纳算法:决策树和Naive-Bayes,一些数据集的准确性得到了显著提高。

MSC公司:

68T05型 人工智能中的学习和自适应系统
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] Aha,D.W.,《容忍基于实例的学习算法中的噪音、无关和新颖属性》,国际。《人机研究杂志》,36,267-287(1992)
[2] 阿哈·D·W。;Bankert,R.L.,《云类型基于案例分类的特征选择:实证比较》,(AAAI-94基于案例推理研讨会的工作笔记。AAAI-94Case-based Reasoning研讨会工作笔记,西雅图,华盛顿州(1994)),106-112
[3] 阿哈·D·W。;Bankert,R.L.,《序列特征选择算法的比较评估》,(Rsher,D.;Lenz,H.,《第五届人工智能与统计国际研讨会论文集》,佛罗里达州劳德代尔堡(1995),1-7
[4] 阿哈·D·W。;Kibler,D。;Albert,M.K.,基于实例的学习算法,机器学习,6,37-66(1991)
[5] 阿穆阿利姆,H。;Dietterich,T.G.,《具有许多不相关特征的学习》(Proceedings AAAI-91)。《AAAI-91会议录》,加利福尼亚州阿纳海姆(1991),麻省理工学院出版社:麻省剑桥麻省理工学院出版社,547-552
[6] 阿穆阿利姆,H。;Dietterich,T.G.,《在存在许多不相关特征的情况下学习布尔概念》,《人工智能》,69,279-306(1994)·Zbl 0942.68657号
[7] 安德森,J.R。;Matessa,M.,探索增量贝叶斯分类算法,机器学习,9275-308(1992)
[8] Atkeson,C.G.,《使用局部加权回归进行机器人学习》(IEEE机器人与自动化国际会议论文集。IEEE机器人和自动化国际会议文献集,加利福尼亚州萨克拉门托(1991)),958-963
[9] Bala,J。;Jong,K.A.D。;Haung,J。;瓦菲,H。;Wechsler,H.,使用遗传算法和决策树进行模式分类的混合学习,(Mellish,C.S.,Proceedings IJCAI-95。《国际JCAI-95会议记录》,魁北克省蒙特利尔(1995),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),719-724
[10] Ben-Bassat,M.,《特征评估中距离度量、信息度量和误差界限的使用》,(Krishnaiah,P.R.;Kanal,L.N.,《统计手册》,第2卷(1982年),北荷兰:北荷兰阿姆斯特丹),773-791·Zbl 0506.62044号
[11] (Webber,B.;Nilsson,N.J.,《人工智能阅读》(1981),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),79-87,再版于:·Zbl 0498.68054号
[12] Blum,A.L。;Rivest,R.L.,《训练一个三节点神经网络是NP-complete》,神经网络,5,117-127(1992)
[13] 博迪,M。;Dean,T.,《解决时间相关规划问题》(Sridharan,N.S.,Proceedings IJCAI-89)。《IJCAI-89会议记录》,密歇根州底特律(1989),摩根考夫曼:摩根考夫曼·洛斯·阿尔托斯,加利福尼亚州),979-984·兹比尔0713.68069
[14] Braddil,P。;贾马,J。;Henery,B.,使用元级学习描述分类算法的适用性,(Bergadano,F.;Raedt,L.D.,《欧洲机器学习会议论文集》(1994))
[15] Breiman,L.,打包预测,机器学习,24123-140(1996)·Zbl 0858.68080号
[16] 布雷曼,L。;弗里德曼,J.H。;Olshen,R.A。;Stone,C.J.,(分类和回归树(1984),Wadsworth:Wadsworth Belmont,CA)·Zbl 0541.62042号
[17] 邦廷,W.,学习分类树,统计。和计算。,2, 63-73 (1992)
[18] Cardie,C.,《使用决策树改进基于案例的学习》(第十届国际机器学习会议论文集。第十届机器学习国际会议论文集,马萨诸塞州阿默斯特(1993),Morgan Kaufmann:Morgan Koufmann Los Altos),25-32
[19] 卡鲁阿纳,R。;Freitag,D.,Greedy attribute selection,(Cohen,W.W.;Hirsh,H.,Proceedings 11th International Conference on Machine Learning,第11届国际机器学习会议,新泽西州新不伦瑞克(1994),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),28-36
[20] Cestnik,B.,《估计概率:机器学习中的一项关键任务》(Aiello,L.C.,《ECAI-90学报》)。ECAI-90会议记录,瑞典斯德哥尔摩(1990),147-149
[21] 盖,T.M。;Campenhout,J.M.V.,《关于测量选择问题中的可能顺序》,IEEE Trans。Systems Man Cybernet。,7, 657-661 (1977) ·Zbl 0371.62036号
[22] Dasarathy,B.V.,(最近邻(AW)规范:NN模式分类技术(1990),IEEE计算机学会出版社:IEEE计算机协会出版社,加利福尼亚州洛斯·阿拉米托斯)
[23] De Mántaras,R.L.,用于决策树归纳的基于距离的属性选择度量,机器学习,681-92(1991)
[24] Devijver,P.A。;Kittler,J.,(模式识别:统计方法(1982),普伦蒂斯·霍尔:普伦蒂斯霍尔·恩格尔伍德,新泽西州克利夫斯)·Zbl 0542.68071号
[25] Doak,J.,《特征选择方法及其在计算机安全中的应用评估》(技术报告CSE-92-18(1992),加利福尼亚大学:加利福尼亚大学戴维斯分校,CA)
[26] 多明戈斯,P。;Pazzani,M.,《超越独立性:简单贝叶斯分类器的优化条件》,(Saitta,L.,《第13届机器学习国际会议论文集》,第13届国际机器学习会议论文集,意大利巴里(1996),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),105-112
[27] Dougherty,J。;Kohavi,R。;Sahami,M.,连续特征的监督和非监督离散化,(Prieditis,A.;Russell,S.,《第十二届机器学习国际会议论文集》,加利福尼亚州塔霍湖,第十二届国际机器学习会议论文集(1995),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),194-202
[28] 德雷珀,N.R。;Smith,H.(应用回归分析(1981),Wiley:Wiley New York)·Zbl 0548.62046号
[29] 杜达,R。;Hart,P.,(模式分类和场景分析(1973),威利:威利纽约)·Zbl 0277.68056号
[30] Fayyad,U.M.,《关于多概念学习决策树的归纳》(密歇根大学EECS系博士论文(1991))
[31] 法耶兹,U.M。;Irani,K.B.,《决策树生成中的属性选择问题》(Proceedings AAAI-92)。《AAAI-92会议录》,加利福尼亚州圣何塞(1992),麻省理工学院出版社:麻省剑桥麻省理学院出版社,104-110
[32] Fong,P.W.L.,假设选择的定量研究,(Prieditis,A.;Russell,S.,Proceedings 12th International Conference on Machine Learning。Proceedings 12th International Conference on Machine Learning,Lake Tahoe,CA(1995),Morgan Kaufmann:Morgan Kaufmann Los Altos,CA),226-234
[33] Freund,Y.,《以多数推动弱学习算法》(计算学习理论第三届年度研讨会论文集。计算学习理论论文集第三届年会论文集,加利福尼亚州旧金山(1990)),202-216
[34] 另外:通知。和计算。,出现。;同时:通知。和计算。,出现。
[35] 弗伦德,Y。;Schapire,R.E.,《在线学习的决策理论概括及其在促进中的应用》(《第二届欧洲计算学习理论会议论文集》(1995),施普林格出版社:施普林格柏林),23-37
[36] Furnival,G.M。;Wilson,R.W.,《跨越式回归》,技术计量学,16499-511(1974)·Zbl 0294.62079号
[37] Geman,S。;Bienenstock,E。;Doursat,R.,《神经网络与偏差/方差困境》,神经计算。,1-48 (1992)
[38] Gennari,J.H。;兰利,P。;Fisher,D.,增量概念形成模型,人工智能,40,11-61(1989)
[39] Ginsberg,M.L.,(《人工智能基础》(1993),Morgan Kaufmann:Morgan Koufmann Los ALtos,CA)
[40] Goldberg,D.E.,(搜索、优化和机器学习中的遗传算法(1989),Addison-Wesley:Addison-Whesley Reading,MA)·Zbl 0721.68056号
[41] Good,I.J.,(概率估计:现代贝叶斯方法论文(1965),麻省理工学院出版社:麻省理学院出版社,马萨诸塞州剑桥)·兹比尔0168.39603
[42] Greiner,R.,《概率爬山:理论与应用》(Glasgow,J.;Hadley,R.),《第九届加拿大人工智能会议论文集》,加拿大人工智能第九届会议论文集,不列颠哥伦比亚省温哥华(1992),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),60-67
[43] Hancock,T.R.,《关于寻找小型一致决策树的困难》(1989),哈佛大学:哈佛大学剑桥,马萨诸塞州,未出版手稿
[44] Hoeffing,I.W.,有界随机变量和的概率不等式,J.Amer。统计师。协会,58,13-30(1963)·Zbl 0127.10602号
[45] Holland,J.H.,(《自然和人工系统中的适应:生物学、控制和人工智能应用的介绍性分析》(1992),麻省理工学院出版社:麻省理学院出版社剑桥)
[46] Hyafil,L。;Rivest,R.L.,构建最优二叉决策树是NP-完全的,Inform。过程。莱特。,5, 15-17 (1976) ·Zbl 0333.68029号
[47] John,G.H.,《数据挖掘过程的增强》(1997年斯坦福大学计算机科学系博士论文:加利福尼亚州斯坦福大学计算机系)
[48] 约翰·G。;Kohavi,R。;Pfleger,K.,《无关特征和子集选择问题》(Proceedings 11th International Conference on Machine Learning),第11届国际机器学习会议论文集,新泽西州新不伦瑞克(1994),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),121-129
[49] Judd,S.,《关于加载浅层神经网络的复杂性》,J.complexity,4177-192(1988)·Zbl 0648.68086号
[50] Kaelbling,L.P.,(《嵌入式系统学习》(1993),麻省理工学院出版社:麻省理学院出版社,马萨诸塞州剑桥)
[51] Kira,K。;Rendell,L.A.,《特征选择问题:传统方法和新算法》(Proceedings AAAI-92)。《AAAI-92会议录》,加利福尼亚州圣何塞(1992),麻省理工学院出版社:麻省剑桥,129-134
[52] Kira,K。;Rendell,L.A.,《特征选择的实用方法》(第九届机器学习国际会议论文集。第九届国际机器学习会议论文集,苏格兰阿伯丁(1992),Morgan Kaufmann:Morgan Koufmann Los Altos,CA)
[53] Kittler,J.,《Une généralisation de quelques algorithms sous-optimaux de recherche d’ensemples d’attributs》(《国会议员形式与图像调查会议录》(1978年))
[54] Kittler,J.(特征选择和提取(1986),学术出版社:纽约学术出版社),第3章,59-83
[55] Kohavi,R.,作为概率估计搜索的特征子集选择,(AAAI秋季相关性研讨会论文集。AAAI秋天相关性研讨会论文集中,路易斯安那州新奥尔良(1994)),122-126
[56] Kohavi,R.,《决策表的力量》,(Lavrac,N.;Wrobel,S.,《欧洲机器学习会议论文集》。《欧洲机器教学会议论文集,人工智能讲义》,第914卷(1995),施普林格:施普林格柏林),174-189
[57] Kohavi,R.,《精度估计和模型选择的交叉验证和自举研究》,(Mellish,C.S.,Proceedings IJCAI-95。《国际JCAI-95会议记录》,魁北克省蒙特利尔市(1995),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),1137-1143
[58] Kohavi,R.,用于性能增强和遗忘决策图的包装器,(STAN-CS-TR-95-1560。STAN-CS-TR-95-1560,斯坦福大学计算机科学系博士论文(1995年)
[59] Kohavi,R。;Frasca,B.,《有用的特征子集和粗糙集约简》(Proceedings 3rd International Workshop on rough Sets and Soft Computing,1994),310-317
[60] 此外:在:软计算; 另外:在:软计算
[61] Kohavi,R。;John,G.,通过最小化估计误差来自动选择参数,(Prieditis,A.;Russell,S.,《第十二届机器学习国际会议论文集》,加州塔霍湖,第十二届国际机器学习会议论文集(1995),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),304-312
[62] Kohavi,R。;Sommerfield,D.,使用包装模型的特征子集选择:过度填充和动态搜索空间拓扑,(《第一届知识发现和数据挖掘国际会议论文集》(1995)),192-197
[63] Kohavi,R。;Wolpert,D.H.,零损失函数的偏差加方差分解,(Saitta,L.,《第13届机器学习国际会议论文集》,第13届国际机器学习会议论文集,Ban,Italy(1996),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),275-283,在线阅读:
[64] Kohavi,R。;Sommerfield,D。;Dougherty,J.,数据挖掘使用MLC公司++:C++中的机器学习库,(人工智能工具(1996),IEEE计算机学会出版社:IEEE计算机协会出版社,马里兰州罗克维尔),234-245
[65] 科诺连科,I。;De Raedt,L.,《估算属性:救济的分析和扩展》(Bergadano,F.,《欧洲机器学习会议论文集》(1994))
[66] Kononenko,I.,《关于估计多值属性时的偏差》,(Mellish,C.S.,Proceedings IJCAI-95。《美国魁北克省蒙特利尔市IJCAI-95会议记录》(1995),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),1034-1040
[67] Koza,J.,(《遗传编程:通过自然选择的选择方法实现计算机编程》(1992年),麻省理工学院出版社:麻省理学院出版社,马萨诸塞州剑桥)·Zbl 0850.68161号
[68] Krogh,A。;Vedelsby,J.,《神经网络集成、交叉验证和主动学习》,(神经信息处理系统进展,第7卷(1995年),麻省理工学院出版社:麻省理学院出版社剑桥,MA)
[69] 郭,S.W。;Carter,C.,《多决策树》(Schachter,R.D.;Levitt,T.S.;Kanal,L.N.;Lemmer,J.F.,《人工智能中的不确定性》(1990),Elsevier:Elsevier Amsterdam),327-335
[70] Laarhoven,P。;Aarts,E.(模拟退火:理论与应用(1987),Kluwer学术出版社:Kluwer-学术出版社Dordrecht)·Zbl 0643.65028号
[71] Langley,P.,《机器学习中相关特征的选择》,(AAAI秋季相关性研讨会论文集。AAAI秋天相关性研讨会论文集中,洛杉矶新奥尔良(1994)),140-144
[72] 兰利,P。;Sage,S.,Sage,选择性贝叶斯分类器的归纳,(第十届人工智能不确定性会议论文集。第十届人造智能不确定性大会论文集,西雅图,华盛顿州(1994),Morgan Kaufmann:Morgan Koufmann San Maleo,CA),399-406
[73] 兰利,P。;Sage,S.,《不经意决策树和绝对案例》,(《AAAI-94基于案例推理研讨会工作笔记》,《AAAI.94基于案例的推理研讨会工作备忘录》,西雅图,华盛顿州(1994年),AAAI出版社),113-117
[74] 兰利,P。;伊巴·W。;Thompson,K.,《贝叶斯分类器分析》(Proceedings AAAI-94)。《AAAI-94会议录》,西雅图,华盛顿州(1992),AAAI出版社和麻省理工学院出版社,223-228
[75] Linhart,H。;Zucchini,W.(模型选择(1986),威利:威利纽约)·Zbl 0665.62003年
[76] 利特斯通,N。;Warmuth,M.K.,加权多数算法,Inform。和计算。,108, 212-261 (1994) ·Zbl 0804.68121号
[77] Mallows,C.L.,《关于(C_p)的一些评论》,《技术计量学》,第15期,第661-675页(1973年)·Zbl 0269.62061号
[78] 马里尔,T。;Green,D.M.,《关于识别系统中受体的有效性》,IEEE Trans。通知。理论,9,11-17(1963)
[79] 马龙,O。;Moore,A.W.,Hoeffing races:加速分类和函数近似的模型选择搜索,(神经信息处理系统进展,第6卷(1994),Morgan Kaufmann:Morgan Koufmann Los Altos,CA)
[80] Merz,C.J。;Murphy,P.M.,UCI机器学习数据库存储库(1996)
[81] Miller,A.J.,回归变量子集的选择,J.Roy。统计师。《社会学杂志》,147389-425(1984)·Zbl 0584.62106号
[82] Miller,A.J.,(《回归中的子集选择》(1990),查普曼和霍尔:查普曼与霍尔伦敦)·Zbl 0702.62057号
[83] Minsky,M.L。;Papert,S.,(Perceptrons:计算几何导论(1988),麻省理工学院出版社:麻省剑桥麻省理学院出版社),扩充版·Zbl 0197.43702号
[84] Mladenić,D.,自动化模型选择(ECML知识级建模和机器学习研讨会(1995年))
[85] Modrzejewski,M.,使用粗糙集理论进行特征选择,(Braddil,P.B.,《欧洲机器学习会议论文集》(1993),施普林格:施普林格柏林),213-226
[86] 摩尔,A.W。;Lee,M.S.,《最小化交叉验证错误的高效算法》(Cohen,W.W.;Hirsh,H.,《第11届机器学习国际会议论文集》,新泽西州新不伦瑞克,第11届国际机器学习会议论文集(1994),Morgan Kaufmann:Morgan Koufmann Los Altos,CA)
[87] Moret,B.M.E.,《决策树和图表》,ACM Compute。调查,14593-623(1982)
[88] Murthy,S。;Salzberg,S.,《决策树归纳中的前瞻与病理学》(Mellish,C.S.,Proceedings IJCAI-95)。《国际JCAI-95会议记录》,魁北克省蒙特利尔市(1995),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),1025-1031
[89] Narendra,M.P。;Fukunaga,K.,特征子集选择的分支定界算法,IEEE Trans。计算。,26, 917-922 (1977) ·Zbl 0363.68059号
[90] Neter,J。;Wasserman,W。;Kutner,M.H.,(应用线性统计模型(1990),Irwin:Irwin Homewood,IL)
[91] Pawlak,Z.(粗糙集(1991),Kluwer学术出版社·Zbl 0758.68054号
[92] Pawlak,Z.,《粗糙集:现状与未来》,Found。计算。决策科学。,18, 157-166 (1993) ·Zbl 0803.04007号
[93] Pazzani,M.J.,《在贝叶斯分类器中搜索依赖性》,(Fisher,D.;Lenz,H.,《第五届人工智能和统计国际研讨会论文集》,佛罗里达州劳德代尔堡,第五届国际人工智能和统计学研讨会论文集(1995))·Zbl 0728.68098号
[94] Perrone,M.,《改进回归估计:方差减少的平均方法及一般凸测度优化的扩展》,(博士论文(1993),布朗大学物理系:罗得岛州布朗大学物理部)
[95] 普罗万,G.M。;Singh,M.,《使用特征选择学习贝叶斯网络》,(Fisher,D.;Lenz,H.,《第五届人工智能和统计国际研讨会论文集》,佛罗里达州劳德代尔堡(1995),450-456
[96] Provost,F.J.,《归纳机器学习中偏向选择的政策》(匹兹堡大学计算机科学系,报告编号92-34)。匹兹堡大学计算机科学系,代表。第92-34号,博士论文(1992年)
[97] Provost,F.J。;Buchanan,B.G.,归纳政策:偏见选择的语用学,机器学习,20,35-61(1995)
[98] Quinlan,J.R.,决策树归纳,机器学习。(Shavlik,J.W.;Dietterich,T.G.,《机器学习阅读》(1986),摩根考夫曼:摩根考夫曼·圣马特奥,加利福尼亚州),第181-106页(1986年),重印于
[99] Quinlan,J.R.,(C4.5:机器学习程序(1993),Morgan Kaufmann:Morgan Koufmann-San Mateo,CA)
[100] Quinlan,J.R.,《实证学习中的监督研究和分层搜索》(Mellish,C.S.,Proceedings IJCAI-95)。《美国魁北克省蒙特利尔市IJCAI-95会议记录》(1995),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),1019-1024
[101] 伦德尔,L。;Seshu,R.,《通过建设性归纳法学习困难概念:框架和基本原理》,计算。智力。,6, 247-270 (1990)
[102] Rosenblatt,F.,《感知器:大脑中信息存储和组织的概率模型》,《心理学评论》,65386-408(1958)
[103] 罗素·S·J。;Norvig,P.,(《人工智能:现代方法》(1995),普伦蒂斯·霍尔:普伦蒂斯霍尔-恩格尔伍德克利夫斯,新泽西州)·Zbl 0835.68093号
[104] Schaffer,C.,通过交叉验证选择分类方法,机器学习,13,135-143(1993)
[105] Schapire,R.E.,《弱可学习性的力量》,机器学习,5197-227(1990)
[106] 西德莱基。;Sklansky,J.,《关于自动特征选择》,国际出版社。J.模式识别和人工智能,2197-220(1988)
[107] 辛格,M。;Provan,G.M.,《选择性和非选择性贝叶斯分类器归纳算法的比较》,(第12届机器学习国际会议论文集。第12届国际机器学习会议论文集,加州塔霍湖(1995),Morgan Kaufmann:Morgan Koufmann San Mateo,CA),497-505
[108] Skalak,D.B.,《通过采样和随机变异爬山算法进行原型和特征选择》,(Cohen,W.W.;Hirsh,H.,《第十一届机器学习国际会议论文集》,新泽西州新不伦瑞克,第十一届国际机器学习会议论文集(1994),Morgan Kaufmann:Morgan Koufmann Los Altos,CA)
[109] 西北部街道。;Mangasarian,O.L。;Wolberg,W.H.,《预测预测的归纳学习方法》(第十二届国际机器学习会议论文集。第十二届机器学习国际会议论文集,加州塔霍湖(1995),Morgan Kaufmann:Morgan Koufmann San Mateo,CA)
[110] 泰勒,C。;Michie,D。;Spiegelhalter,D.(机器学习、神经和统计分类(1994),派拉蒙出版国际)·Zbl 0827.68094号
[111] 特隆,《和尚的问题:不同学习算法的性能比较》(技术报告CMU-CS-91-197(1991),卡内基梅隆大学:卡内基梅隆大学匹兹堡,宾夕法尼亚州)
[112] Turny,P.D.,《学习分类时利用上下文》(Braddil,P.B.,《欧洲机器学习会议论文集》(ECML)(1993)),402-407
[113] Turny,P.D.,《上下文敏感特征的识别,概念学习上下文的正式定义》,(Kubat,M.;Widmer,G.,《上下文相关领域学习研讨会论文集》(1996),53-59,另见:加拿大国家研究委员会技术报告#39222
[114] Utgoff,P.E.,《决策树增量归纳的改进算法》,(第11届机器学习国际会议论文集。第11届国际机器学习会议论文集,新泽西州新不伦瑞克(1994),Morgan Kaufmann:Morgan Koufmann Los Altos,CA),318-325
[115] Utgoff,P.E.,基于有效树重组的决策树归纳,(《技术报告》05-18(1995),马萨诸塞大学:马萨诸塞州阿默斯特大学,MA)·Zbl 0886.68105号
[116] 瓦菲,H。;De Jong,K.,遗传算法作为机器学习中的特征选择工具,(第四届人工智能工具国际会议论文集(1992年),IEEE计算机学会出版社:IEEE计算机学会出版社,马里兰州罗克维尔),200-203
[117] 瓦菲,H。;De Jong,K.,鲁棒特征选择算法,(第五届人工智能工具国际会议论文集(1993),IEEE计算机学会出版社:IEEE计算机协会出版社,马里兰州罗克维尔),356-363
[118] Wolpert,D.H.,关于样本内测试和泛化误差之间的联系,复杂系统,6,47-94(1992)·Zbl 0792.68144号
[119] Wolpert,D.H.,叠加泛化,神经网络,5241-259(1992)
[120] 徐,L。;Yan,P。;Chang,T.,特征选择的最佳第一策略,(《第九届国际模式识别会议论文集》(1989年),IEEE计算机学会出版社:IEEE计算机学会出版社,马里兰州罗克维尔),706-708
[121] Yan,D。;Mukai,H.,随机离散优化,SIAM J.控制与优化,30594-612(1992)·Zbl 0764.90066号
[122] Yu,B。;Yuan,B.,一种更有效的特征选择分枝定界算法,模式识别,26883-889(1993)
[123] Ziarko,W.,《数据库中数据相关性的发现、分析和表示》,(Piatetsky-Shapiro,G.;Frawley,W.《数据库中的知识发现》(1991),麻省理工学院出版社:麻省理学院出版社剑桥,MA)
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。