诺金,V.I。;医学硕士凯泽。 基于经验风险最小化的分类方法的效率。 (英语。俄文原件) 兹比尔1185.68556 赛博。系统。分析。 45,第5期,750-761(2009); 翻译自Kibern。修女。分析。2009年,第5期,93-105(2009)。 摘要:将二元分类问题归结为再生核Hilbert空间中凸正则经验风险泛函的最小化问题。以核支持函数的有限线性组合(Vapnik的支持向量机)的形式搜索解决方案。根据训练样本大小和其他模型参数,获得了错误分类的风险估计。 MSC公司: 68T05型 人工智能中的学习和自适应系统 关键词:机器学习;分类;识别;经验风险最小化;支持向量机;一致性;收敛速度 PDF格式BibTeX公司 XML格式引用 \textit{V.I.Norkin}和\textit{M.A.Keyzer},Cybern。系统。分析。45,第5号,750--761(2009;Zbl 1185.68556);翻译自Kibern。修女。分析。2009年第5期,93--105(2009) 全文: DOI程序 参考文献: [1] V.N.Vapnik,《统计学习理论》,威利出版社,纽约(1998年)·兹比尔0935.62007 [2] L.Devroye、L.Gyorfi和G.Lugosi,模式识别的概率理论,Springer,纽约(1996)。 [3] C.Stone,“一致非参数回归”,《统计年鉴》,第5595–645页(1977年)·Zbl 0366.62051号 ·doi:10.1214/aos/1176343886 [4] V.N.Vapnik和A.Ya。Chervonenkis,模式识别理论。《学习的统计问题(俄语)》,瑙卡,莫斯科(1974年)·Zbl 0284.68070号 [5] V.N.Vapnik,基于经验数据的依赖性估计(俄语),瑙卡,莫斯科(1979年)·Zbl 0499.62004号 [6] M.A.Aizerman、E.M.Braverman和L.I.Rozonoer,机器学习理论中的势函数方法[俄语],瑙卡,莫斯科(1970)。 [7] B.Schoelkopf和A.J.Smola,《用内核学习》。《支持向量机,正则化,优化及超越》,麻省理工学院出版社,马萨诸塞州剑桥(2002)。 [8] I.Steinwart和A.Christmann,支持向量机,Springer,纽约(2008)。 [9] S.Boucheron、O.Bousquet和G.Lugosi,“分类理论:一些最新进展的综述”,ESAIM:概率与统计,9,323–375(2005)·Zbl 1136.62355号 ·doi:10.1051/ps:2005018 [10] M.I.Schlesinger和V.Hlavác,关于统计和结构模式识别的十次讲座,Kluwer学院。出版物。(2004). [11] L.Gyorfi、M.Kohler、A.Krzyzak和H.Walk,非参数回归的无分布理论,Springer,纽约-柏林-海德堡(2002)。 [12] A.M.Gupal、S.V.Pashko和I.V.Sergienko,“贝叶斯分类程序的效率”,Cybern。系统。《分析》,31,第4期,543–554(1995年)·Zbl 0902.6270号 ·doi:10.1007/BF02366409 [13] I.V.Sergienko和A.M.Gupal,“最佳模式识别程序及其应用”,Cybern。系统。《分析》,第43期,第6期,799–809页(2007年)·Zbl 1154.68499号 ·doi:10.1007/s10559-007-0104-0 [14] A.M.Gupal和I.V.Sergienko,最优模式识别程序[俄语],Naukova Dumka,基辅(2008)·Zbl 1154.68499号 [15] T.Poggio和S.Smale,“学习的数学:处理数据”,Amer注意到。数学。Soc.,50,No.5,537-544(2003)·Zbl 1083.68100号 [16] R.Koenker和G.W.Bassett,“回归分位数”,《计量经济学》,46,33–50(1978)·Zbl 0373.62038号 ·doi:10.2307/1913643 [17] R.Koenker,分位数回归,剑桥大学出版社,剑桥–纽约(2005年)·Zbl 1111.62037号 [18] 于。M.Ermoliev和A.I.Yastremskii,《经济规划中的随机模型和方法》(俄语),瑙卡,莫斯科(1979年)。 [19] Y.M.Ermoliev和G.Leonardi,“随机设施位置模型的一些建议”,数学。建模,3407–420(1982)·Zbl 0521.90044号 ·doi:10.1016/0270-0255(82)90039-2 [20] A.Ruszczynski和A.Shapiro(编辑),《随机编程》,《运筹学和管理科学手册》第10卷,Elsevier,阿姆斯特丹(2003)。 [21] F.Cucker和S.Smale,“学习的数学基础”,公牛。阿默尔。数学。Soc.(N.S.),39,第1期,1-49(2002)·Zbl 0983.68162号 ·doi:10.1090/S0273-0979-01-00923-5 [22] N.Aronshain,“再生内核理论”,Matematika,第7期,第2期,67-130页(1963年)。 [23] A.Berlinet和C.Thomas-Agnan,《概率统计中的再生核Hilbert空间》,Kluwer学院。出版物。,多德雷赫特-波士顿-伦敦(2004年)·兹比尔1145.62002 [24] A.N.Tikhonov和V.Ya。《解决不良问题的方法(俄语)》,瑙卡,莫斯科(1986年)。 [25] F.P.Vasil’ev,解决极端问题的方法。函数空间、正则化和近似中的最小化问题(俄语),瑙卡,莫斯科(1981)。 [26] G.Wahba,“观测数据的样条模型”,CBMS-NSF应用数学区域会议系列,59,SIAM,Philadelphia,PA(1990)·Zbl 0813.62001号 [27] M.A.Keyzer,“联合处理人口普查、地图、调查和地区数据的基于规则和支持向量(SV-)回归/分类算法”,收录于:工作文件WP-05-01,阿姆斯特丹世界粮食研究中心(http://www.sow.vu.nl/pdf/wp05.01.pdf ) (2005). [28] R.T.Rockafellar和R.J.-B.Wets,变分分析,施普林格,柏林(1998)·Zbl 0888.49001号 [29] O.Bousquet和A.Elisseeff,“稳定性和泛化”,J.Mach。学习。第2号决议,499–526(2002年)·兹比尔1007.68083 [30] S.Smale和D.X.Zhou,“香农采样。二: 与学习理论的联系,“应用。计算。哈蒙。分析。,19,第3期,285–302(2005年)·Zbl 1107.94008号 ·doi:10.1016/j.acha.2005.03.001 [31] E.De Vito、A.Caponetto和L.Rosasco,“学习理论中正则化最小二乘算法的模型选择”,发现。计算。数学。,5,第1期,59-85(2005年)·Zbl 1083.68106号 ·doi:10.1007/s10208-004-0134-1 [32] V.I.Norkin和M.A.Keyzer,“关于核学习估计量的收敛性”,载于:L.Sakalauskas,O.W.Weber和E.K.Zavadskas(编辑),Proc。第20届欧洲连续优化和基于知识的技术小型会议(EUROPT-2008),数学研究所。和通知。,维尔纽斯(2008),第306–310页。 [33] V.I.Norkin和M.A.Keyzer,“核支持向量机(SVM)的渐近效率”,Cybern。系统。《分析》,第45期,第4期,575–588页(2009年)。 ·doi:10.1007/s10559-009-9125-1 此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。