×

非解析多核学习的快速学习率和最优正则化策略。 (英语) Zbl 1410.62087号

该研究为具有任意混合形式正则化的多核学习(MKL)提供了一个快速学习速率的框架,讨论了齐次和非齐次设置下的界。本文的目的是从理论上证明在数值实验中获得的稠密型MKL方法的优越性能。

MSC公司:

62H15型 多元分析中的假设检验
68T05型 人工智能中的学习和自适应系统
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] J.Aflalo、A.Ben-Tal、C.Bhattacharyya、J.S.Nath和S.Raman。变量稀疏核学习。,机器学习研究杂志,12:565–5922011·Zbl 1280.68152号
[2] A.Argyriou、R.Hauser、C.A.Michelli和M.Pontil。一种用于核选择的DC编程算法。2006年,第23届机器学习国际会议。
[3] F.R.巴赫。群套索和多核学习的一致性。,机器学习研究杂志,9:1179–12252008·Zbl 1225.68147号
[4] F.R.巴赫。使用分层多核学习探索大型特征空间。D.Koller、D.Schuurmans、Y.Bengio和L.Bottou主编,《神经信息处理系统进展》21,第105-112页。2009
[5] F.R.巴赫、G.兰克里特和M.乔丹。多核学习、二次曲线对偶和SMO算法。2004年,第21届机器学习国际会议,第41–48页。
[6] P.Bartlett、O.Bousquet和S.Mendelson。局部Rademacher复杂性。,《统计年鉴》,33:1487-15372005年·Zbl 1083.62034号
[7] P.Bartlett、M.Jordan和D.McAuliffe。凸性、分类和风险边界。,美国统计协会杂志,101:138-1562006·Zbl 1118.62330号 ·doi:10.1198/01621450000000907
[8] C.Bennett和R.Sharpley。,算子插值。波士顿学术出版社,1988年·Zbl 0647.46057号
[9] O.布斯克。一个Bennett浓度不等式及其在经验过程上的应用。,C.R.学院。科学。巴黎Ser。我数学。,334:495–500, 2002. ·Zbl 1001.60021号 ·doi:10.1016/S1631-073X(02)02292-6
[10] U.Chakraborty,编辑。,差异进化研究进展(计算智能研究)。施普林格,2008年·Zbl 1153.68510号
[11] C.Cortes、M.Mohri和A.Rostamizadeh。学习核函数的非线性组合。在Y.Bengio、D.Schuurmans、J.Lafferty、C.K.I.Williams和A.Culotta编辑的《神经信息处理系统进展》22,第396-404页。2009年a。
[12] C.Cortes、M.Mohri和A.Rostamizadeh\学习核的(L_2)正则化。年,第25届人工智能不确定性会议(UAI 2009),2009b。加拿大蒙特利尔·Zbl 1283.68286号
[13] C.Cortes、M.Mohri和A.Rostamizadeh。学习核的泛化边界。2010年第27届机器学习国际会议论文集·Zbl 1283.68286号
[14] D.E.Edmunds和H.Triebel。,函数空间,熵数,微分算子。剑桥,剑桥,1996年·Zbl 0865.46020号
[15] E.Giné和R.Nickl。,无限维统计模型的数学基础。剑桥统计与概率数学系列。剑桥大学出版社,2015年。
[16] G.S.Kimeldorf和G.Wahba。关于Tchebycheffian样条函数的一些结果。,数学分析与应用杂志,33:82–951971年·Zbl 0201.39702号 ·doi:10.1016/0022-247X(71)90184-3
[17] M.Kloft、U.Brefeld、S.Sonnenburg、P.Laskov、K.-R.Müller和A.Zien。高效准确\(ℓ_p)-范数多核学习。《神经信息处理系统进展》22,第997-1005页,马萨诸塞州剑桥市,2009年。麻省理工学院出版社·Zbl 1433.68356号
[18] M.Kloft、U.Rückert和P.L.Bartlett。多内核学习的统一观点。年,《欧洲数据库机器学习和知识发现会议论文集》(ECML/PKDD),2010年·Zbl 1280.68173号
[19] M.Kloft、U.Brefeld、S.Sonnenburg和A.Zien\(ℓ_p)-规范多核学习,2011年·Zbl 1118.62065号
[20] V.科尔钦斯基。风险最小化中的局部Rademacher复杂性和oracle不等式。,《统计年鉴》,34:2593–26562006·Zbl 1280.68173号 ·doi:10.1214/009053606000001019
[21] V.Koltchinskii和M.Yuan。大型内核机器集合中的稀疏恢复。2008年,《学习理论年度会议记录》,第229-238页·Zbl 1118.62065号
[22] V.Koltchinskii和M.Yuan。多核学习中的稀疏性。,《统计年鉴》,38(6):3660–3695,2010年·Zbl 1186.90004号 ·doi:10.1214/10-AOS825
[23] K.P.R.M.S.J.A.Lampinen。,差分进化-一种实用的全局优化方法。斯普林格,2005年·Zbl 1204.62086号
[24] G.Lanckriet、N.Cristianini、L.E.Ghaoui、P.Bartlett和M.Jordan。用半定规划学习核矩阵。,机器学习研究杂志,5:27-722004·Zbl 1186.90004号
[25] M.Ledoux和M.Talagrand。,Banach空间中的概率。等高线和过程。施普林格,纽约,1991年。MR1102015·Zbl 1222.68241号
[26] L.Meier、S.van de Geer和P.Bühlmann。高维加性建模。,《统计年鉴》,37(6B):3779-38212009年·Zbl 0748.60004号 ·doi:10.1214/09-AOS692
[27] C.A.Michelli和M.Pontil。通过正则化学习核函数。,机器学习研究杂志,6:1099–11252005·Zbl 1360.62186号
[28] C.A.Michelli、M.Pontil、Q.Wu和D.X.Zhou。学习内核的错误界限。,分析与应用,14(06):849–8682016·Zbl 1222.68265号 ·doi:10.1142/S0219530516400054
[29] C.S.Ong、A.J.Smola和R.C.Williamson。使用超内核学习内核。,机器学习研究杂志,6:1043-10712005·Zbl 1392.68357号
[30] G.Raskutti、M.Wainwright和B.Yu。具有加性稀疏性和光滑性的非参数回归的极小极大率的下界。年,《神经信息处理系统进展》22,第1563-1570页。麻省理工学院出版社,马萨诸塞州剑桥,2009年·兹比尔1222.68277
[31] G.Raskutti、M.Wainwright和B.Yu。基于凸规划的核类上稀疏可加模型的极小极大最优速率。技术报告,2010年,arXiv:1008.3654·Zbl 1283.62071号
[32] B.Schölkopf和A.J.Smola。,用内核学习。麻省理工学院出版社,马萨诸塞州剑桥,2002年·Zbl 1283.62071号
[33] J.肖-泰勒。新颖性检测的内核学习。年,NIPS 2008内核学习研讨会:自动选择最佳内核,Whistler,2008·Zbl 1143.68561号
[34] J.Shawe-Taylor和N.Cristianini。,模式分析的核心方法。剑桥大学出版社,2004年·兹比尔1203.68171
[35] N.Srebro和S.Ben-David。具有学习核的支持向量机的学习界。《学习理论年会论文集》,2006年·Zbl 0994.68074号
[36] I.斯坦瓦特。,支持向量机。施普林格,2008年·Zbl 1143.68561号
[37] I.Steinwart、D.Hush和C.Scovel。正则化最小二乘回归的最佳速率。2009年,《学习理论年度会议论文集》,第79-93页·兹比尔1203.68171
[38] T.铃木和M.杉山。多核学习的快速学习率:稀疏性与平滑性的权衡。,《统计年鉴》,41(3):1381-14052013年·Zbl 0893.60001号 ·doi:10.1214/13-AOS1095
[39] T.铃木和R.富冈。SpicyMKL:一种具有数千个内核的快速多核学习算法。,机器学习,85:77–1082011年·Zbl 1273.62090号 ·doi:10.1007/s10994-011-5252-9
[40] M.塔拉格兰德。乘积空间中的新集中度不等式。,《数学发明》,126:505-5631996年·Zbl 1237.68166号 ·doi:10.1007/s002220050108
[41] R.Tomioka和T.Suzuki。MKL中的稀疏-精确权衡。年,NIPS 2009年研讨会:理解多种内核学习方法,Whistler,2009年·Zbl 0893.60001号
[42] S.van de Geer。,M估计中的经验过程。剑桥大学出版社,2000年·兹比尔1179.62073
[43] A.W.van der Vaart和J.A.Wellner。,弱收敛与经验过程:统计应用。施普林格,纽约,1996年·兹比尔1179.62073
[44] M.Varma和B.R.Babu。在有效的多核学习中更具通用性。年,第26届机器学习国际会议,2009年·Zbl 0862.60002号
[45] Q.Wu、Y.Ying和D.-X.Zhou。多核正则化分类器。,复杂性杂志,23(1):108-1342007·Zbl 1171.65043号 ·doi:10.1016/j.jco.2006.06.007
[46] Y.Yang和A.Barron。最小最大收敛速度的信息论确定。,《统计年鉴》,27(5):1564–15991999·Zbl 1171.65043号 ·doi:10.1214/aos/1017939142
[47] Y.Ying和C.Campbell。学习内核的泛化边界。S.Dasgupta和A.Klivans,编辑,《学习理论年度会议论文集》,魁北克蒙特利尔,2009年。全能女·Zbl 0978.62008号
[48] Y.Ying和D.-X.Zhou。具有可变方差的高斯函数的可学习性。,机器学习研究杂志,8(2月):249–2762007·Zbl 1222.68339号
[49] 袁敏洪、林毅。分组变量回归中的模型选择与估计。,英国皇家统计学会期刊B辑,68(1):49-672006·Zbl 1222.68339号 ·doi:10.1111/j.1467-9868.2005302.x
[50] 袁敏洪、林毅。分组变量回归中的模型选择与估计。,英国皇家统计学会期刊B辑,68(1):49-672006·Zbl 1141.62030号 ·doi:10.1111/j.1467-9868.2005302.x
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。