×

兹马思-数学第一资源

具有斜坡损失的稀疏加法机。(英语) Zbl 07362271
理学硕士:
68T05型 人工智能中的学习与自适应系统
六二零二 一般非线性回归
软件:
UCI毫升
PDF格式 BibTeX公司 XML 引用
全文: 内政部
参考文献:
[1] Aronszajn,N.,再生核理论,翻译。阿默尔。数学。第68(3)(1950)337-404号法令·Zbl 0037.20701
[2] Bartlett,P.L.和Mendelson,S.,《Rademacher和gaussian复杂性:风险边界和结构结果》,J.Mach。学习。第3(2002)463-482号决议·Zbl 1084.68549
[3] Bradley,P.S.和Mangasarian,O.L.,《通过凹面最小化和支持向量机进行特征选择》,载《国际会议机器学习》(ICML),旧金山,(1998),第82-90页。
[4] 布鲁克斯,J.,具有斜坡损失和硬边界损失的支持向量机,运算。第59(2)(2011)467-479号决议·Zbl 1228.90057
[5] 陈德瑞、吴国强、英勇、周德祥,《支持向量机软边界分类器:误差分析》,J.Mach。学习。第5号决议(2004)1143-1175·Zbl 1222.68167
[6] Chen,H.,Pan,Z.,Li,L.和Tang,Y.Y.,基于系数的正则化密度检测算法的误差分析,神经计算,25(4)(2013)1107-1121·Zbl 1269.62037
[7] Chen,H.,Wang,X.,Deng,C.和Huang,H.,群组稀疏加法机,神经信息处理系统(NIPS)进展(Curran Associates,Inc.,2017),第198-208页。
[8] Christmann,A.和Harble,R.,《使用可加性核的支持向量机的一致性》,计算机。统计数据分析56(2012)854-873·Zbl 1243.62051
[9] Christmann,A.和Zhou,D.X.,加性模型中基于核的分位数回归估计的风险学习率,分析。申请14(3)(2016)449-477·Zbl 1338.62077
[10] 《最优化与非光滑分析》(工业与应用数学学会,1990年)·Zbl 0696.49002
[11] Collobert,R.,Sinz,F.,Weston,J.和Bottou,L.,《用凸性换取可伸缩性》,过程中。第23国际米兰。机器学习会议(美国匹兹堡,2006年),第201-208页。
[12] 《学习理论:近似理论观点》(剑桥大学出版社,2007)·Zbl 1274.41001号
[13] D、 Dua和C.Graff,UCI机器学习知识库(2017年),http://archive.ics.uci.edu/ml。
[14] Feng,Y.,Lv,S.G.,Hang,H.和Suykens,J.A.K.,核化弹性网络正则化:泛化边界和稀疏恢复,神经计算。28(3)(2016)525-562·Zbl 07062531
[15] 郭志川,项,H,郭,X。和周,X。稀疏近似的阈值谱算法,分析。申请15(3)(2017)433-455·Zbl 1409.68232
[16] Györfi,L.,Kohler,M.,Krzyżak,A.和Walk,H.,非参数回归的无分布理论(Springer-Verlag,纽约,2002)·Zbl 1021.62024
[17] Hastie,T.J.和Tibshirani,R.J.,广义加性模型(Chapman and Hall,伦敦,1990)·Zbl 0747.62061
[18] Huang,X.,Shi,L.和Suykens,J.A.K.,斜坡损失线性规划支持向量机,J.Mach。学习。第15号决议(2014)2185-2211·Zbl 1318.68144
[19] Huang,X.,Shi,L.和Suykens,J.A.K.,带弹球损失的支持向量机分类器,IEEE Trans。肛门模式。机器。Intelli.36(5)(2014)948-997。
[20] Huang,X.,Shi,L.和Suykens,J.A.K.,带弹球损失的支持向量机序列最小优化,神经计算149(3)(2015)1596-1603。
[21] Kandasamy,K.和Yu,Y.,通过SALSA对高维非参数回归的加性近似,载于《机器学习国际会议》(ICML),第48卷,美国纽约,(2016年),第69-78页。
[22] 吕,S,林,H,Lian,H.和Huang,J.,再生核hilbert空间中稀疏可加分位数回归的Oracle不等式,人工神经网络。Statist.46(2)(2018)781-813·Zbl 1459.62053
[23] Nesterov,Y.,非光滑函数的光滑最小化。数学规划,数学。方案103(2005)127-152·Zbl 1079.90102
[24] 斯帕姆·斯帕姆·斯帕姆·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔·拉维尔。Soc。爵士。B71(2009)1009-1030·Zbl 1411.62107
[25] 施立龙、冯玉莲、周德祥,用正则化器和数据相关假设空间进行学习的集中度估计,应用。计算机。哈蒙。分析31(2)(2011)286-302·Zbl 1221.68201号
[26] Steinwart,I.和Christmann,A.,支持向量机(Springer Science and Business Media,2008)·Zbl 1203.68171
[27] Steinwart,I.和Christmann,A.,鲁棒截断铰链损失支持向量机,伯努利17(1)(2011)211-225·兹布1284.62235
[28] Stone,C.J.,非参数回归的最优全局收敛率,人工神经网络。Statist.10(1982)1040-1053·Zbl 0511.62048
[29] Stone,C.J.,加性回归和其他非参数模型,人工神经网络。统计师。13(2)(1985)689-705·零担0605.62065
[30] Tibshirani,R.,《通过套索进行回归收缩和选择》,J.皇家统计学家。Soc。爵士。B(方法学),58(1)(1996)267-288·Zbl 0850.62538
[31] Vapnik,V.,《统计学习理论》(John Wiley and Sons,1998)·Zbl 0935.62007
[32] Wright,S.J.,坐标下降算法,数学。计划151(2015)3-34·Zbl 1317.49038
[33] Wu,Y.和Liu,Y.,鲁棒截断铰链损失支持向量机,J.Amer。统计学家。协会102(1)(2007)974-983·Zbl 05564425
[34] 吴Q,周德祥,Svm软边缘分类器:线性规划与二次规划,神经计算17(2005)1160-1187·Zbl 1108.90324
[35] 吴Q,周,D.X.,样本依赖假设空间学习,计算机。数学。申请56(11)(2008)2896-2907·Zbl 1165.68388号
[36] Xi,X.,Huang,X.,Suykens,J.A.K.和Wang,S.,斜坡损失线性规划支持向量机的坐标下降算法,神经过程。利特.43(2016)887-903。
[37] 高维可加性模型的极小极大最优估计率,人工神经网络。统计师44(6)(2016)2564-2593·Zbl 1360.62200
[38] Zeng,J.,Lau,T.T.-K.,Lin,S.和Yao,Y.,《深度学习中块坐标下降的全局收敛性》,国际会议机器学习(ICML)(加利福尼亚州长滩,2019年),第7313-7323页。
[39] 张,T.基于凸风险最小化的分类方法的统计行为与一致性,人工神经网络。Statist.32(2004)56-85·Zbl 1105.62323
[40] 赵,T.和刘,H.,稀疏加法机,正在进行中。15号内景人工合成。因特尔。Stat.(AISTATS)(2012年),第1435-1443页。
[41] Zhu,J.,Rosset,S.,Hastie,T.和Tibshirani,R.,1-范数支持向量机,神经信息处理系统(NIP)进展(Whistler,不列颠哥伦比亚省,加拿大,2003),第49-56页。
此参考列表基于出版商或数字数学图书馆提供的信息。它的项被试探性地匹配到zbMATH标识符,并且可能包含数据转换错误。它试图尽可能准确地反映原始论文中列出的参考文献,而不要求匹配的完整性或精确性。