×

基于经验风险最小化的分类方法的效率。 (英语。俄文原件) 兹比尔1185.68556

赛博。系统。分析。 45,第5期,750-761(2009); 翻译自Kibern。修女。分析。2009年,第5期,93-105(2009)。
摘要:将二元分类问题归结为再生核Hilbert空间中凸正则经验风险泛函的最小化问题。以核支持函数的有限线性组合(Vapnik的支持向量机)的形式搜索解决方案。根据训练样本大小和其他模型参数,获得了错误分类的风险估计。

MSC公司:

68T05型 人工智能中的学习和自适应系统
PDF格式BibTeX公司 XML格式引用
全文: DOI程序

参考文献:

[1] V.N.Vapnik,《统计学习理论》,威利出版社,纽约(1998年)·兹比尔0935.62007
[2] L.Devroye、L.Gyorfi和G.Lugosi,模式识别的概率理论,Springer,纽约(1996)。
[3] C.Stone,“一致非参数回归”,《统计年鉴》,第5595–645页(1977年)·Zbl 0366.62051号 ·doi:10.1214/aos/1176343886
[4] V.N.Vapnik和A.Ya。Chervonenkis,模式识别理论。《学习的统计问题(俄语)》,瑙卡,莫斯科(1974年)·Zbl 0284.68070号
[5] V.N.Vapnik,基于经验数据的依赖性估计(俄语),瑙卡,莫斯科(1979年)·Zbl 0499.62004号
[6] M.A.Aizerman、E.M.Braverman和L.I.Rozonoer,机器学习理论中的势函数方法[俄语],瑙卡,莫斯科(1970)。
[7] B.Schoelkopf和A.J.Smola,《用内核学习》。《支持向量机,正则化,优化及超越》,麻省理工学院出版社,马萨诸塞州剑桥(2002)。
[8] I.Steinwart和A.Christmann,支持向量机,Springer,纽约(2008)。
[9] S.Boucheron、O.Bousquet和G.Lugosi,“分类理论:一些最新进展的综述”,ESAIM:概率与统计,9,323–375(2005)·Zbl 1136.62355号 ·doi:10.1051/ps:2005018
[10] M.I.Schlesinger和V.Hlavác,关于统计和结构模式识别的十次讲座,Kluwer学院。出版物。(2004).
[11] L.Gyorfi、M.Kohler、A.Krzyzak和H.Walk,非参数回归的无分布理论,Springer,纽约-柏林-海德堡(2002)。
[12] A.M.Gupal、S.V.Pashko和I.V.Sergienko,“贝叶斯分类程序的效率”,Cybern。系统。《分析》,31,第4期,543–554(1995年)·Zbl 0902.6270号 ·doi:10.1007/BF02366409
[13] I.V.Sergienko和A.M.Gupal,“最佳模式识别程序及其应用”,Cybern。系统。《分析》,第43期,第6期,799–809页(2007年)·Zbl 1154.68499号 ·doi:10.1007/s10559-007-0104-0
[14] A.M.Gupal和I.V.Sergienko,最优模式识别程序[俄语],Naukova Dumka,基辅(2008)·Zbl 1154.68499号
[15] T.Poggio和S.Smale,“学习的数学:处理数据”,Amer注意到。数学。Soc.,50,No.5,537-544(2003)·Zbl 1083.68100号
[16] R.Koenker和G.W.Bassett,“回归分位数”,《计量经济学》,46,33–50(1978)·Zbl 0373.62038号 ·doi:10.2307/1913643
[17] R.Koenker,分位数回归,剑桥大学出版社,剑桥–纽约(2005年)·Zbl 1111.62037号
[18] 于。M.Ermoliev和A.I.Yastremskii,《经济规划中的随机模型和方法》(俄语),瑙卡,莫斯科(1979年)。
[19] Y.M.Ermoliev和G.Leonardi,“随机设施位置模型的一些建议”,数学。建模,3407–420(1982)·Zbl 0521.90044号 ·doi:10.1016/0270-0255(82)90039-2
[20] A.Ruszczynski和A.Shapiro(编辑),《随机编程》,《运筹学和管理科学手册》第10卷,Elsevier,阿姆斯特丹(2003)。
[21] F.Cucker和S.Smale,“学习的数学基础”,公牛。阿默尔。数学。Soc.(N.S.),39,第1期,1-49(2002)·Zbl 0983.68162号 ·doi:10.1090/S0273-0979-01-00923-5
[22] N.Aronshain,“再生内核理论”,Matematika,第7期,第2期,67-130页(1963年)。
[23] A.Berlinet和C.Thomas-Agnan,《概率统计中的再生核Hilbert空间》,Kluwer学院。出版物。,多德雷赫特-波士顿-伦敦(2004年)·兹比尔1145.62002
[24] A.N.Tikhonov和V.Ya。《解决不良问题的方法(俄语)》,瑙卡,莫斯科(1986年)。
[25] F.P.Vasil’ev,解决极端问题的方法。函数空间、正则化和近似中的最小化问题(俄语),瑙卡,莫斯科(1981)。
[26] G.Wahba,“观测数据的样条模型”,CBMS-NSF应用数学区域会议系列,59,SIAM,Philadelphia,PA(1990)·Zbl 0813.62001号
[27] M.A.Keyzer,“联合处理人口普查、地图、调查和地区数据的基于规则和支持向量(SV-)回归/分类算法”,收录于:工作文件WP-05-01,阿姆斯特丹世界粮食研究中心(http://www.sow.vu.nl/pdf/wp05.01.pdf ) (2005).
[28] R.T.Rockafellar和R.J.-B.Wets,变分分析,施普林格,柏林(1998)·Zbl 0888.49001号
[29] O.Bousquet和A.Elisseeff,“稳定性和泛化”,J.Mach。学习。第2号决议,499–526(2002年)·兹比尔1007.68083
[30] S.Smale和D.X.Zhou,“香农采样。二: 与学习理论的联系,“应用。计算。哈蒙。分析。,19,第3期,285–302(2005年)·Zbl 1107.94008号 ·doi:10.1016/j.acha.2005.03.001
[31] E.De Vito、A.Caponetto和L.Rosasco,“学习理论中正则化最小二乘算法的模型选择”,发现。计算。数学。,5,第1期,59-85(2005年)·Zbl 1083.68106号 ·doi:10.1007/s10208-004-0134-1
[32] V.I.Norkin和M.A.Keyzer,“关于核学习估计量的收敛性”,载于:L.Sakalauskas,O.W.Weber和E.K.Zavadskas(编辑),Proc。第20届欧洲连续优化和基于知识的技术小型会议(EUROPT-2008),数学研究所。和通知。,维尔纽斯(2008),第306–310页。
[33] V.I.Norkin和M.A.Keyzer,“核支持向量机(SVM)的渐近效率”,Cybern。系统。《分析》,第45期,第4期,575–588页(2009年)。 ·doi:10.1007/s10559-009-9125-1
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。