×

大规模问题的不敏感随机梯度双支持向量机。 (英语) Zbl 1440.68245号

摘要:在大规模分类问题中,称为PEGASOS的随机梯度下降方法已成功应用于支持向量机(SVM)。本文提出了一种基于双支持向量机(TWSVM)的随机梯度双支持向量机器(SGTSVM)。与PEGASOS相比,我们的方法对随机抽样不敏感。此外,我们证明了SGTSVM的收敛性以及均匀采样下TWSVM和SGTSVM之间的逼近性,而PEGASOS几乎肯定是收敛的,只有机会获得SVM的逼近。此外,我们通过核技巧将SGTSVM扩展到非线性分类问题。在人工和公开数据集上的实验表明,我们的方法具有稳定的性能,可以轻松处理大规模问题。

MSC公司:

68T05型 人工智能中的学习和自适应系统
62H30型 分类和区分;聚类分析(统计方面)
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] A.本纳。;Monnez,J.,凸集中随机逼近过程的几乎必然收敛性,国际期刊应用。数学。,20713-722(2007年)·Zbl 1130.62086号
[2] Chang,C。;Lin,C.,Libsvm:支持向量机库,ACM Trans。智力。系统。技术。,2, 27, 1-27 (2011)
[3] Chen,W。;Shao,Y。;李,C。;Deng,N.,Mltsvm:一种新的双支持向量机多标签学习,模式识别。,52, 61-74 (2015) ·Zbl 1394.68277号
[4] 科尔特斯,C。;Vapnik,V.,支持向量网络,马赫。学习,20273-297(1995)·Zbl 0831.68098号
[5] 杜达,R。;哈特,P。;Stork,D.,模式分类(2001),John Wiley父子公司·Zbl 0968.68140号
[6] 右风扇。;Chang,K。;谢长廷。;王,X。;Lin,C.,LIBLINEAR:大型线性分类库,J.Mach。学习。1871-1874年第9号决议(2008年)·Zbl 1225.68175号
[7] Golub,G.等人。;Van,L.,《矩阵计算》(1996),约翰·霍普金斯大学出版社·Zbl 0865.65009号
[8] 戈亚尔,P。;多拉,P。;Girshick,R.,Accurate,large minibatch sgd:1小时内培训imagenet,数据挖掘研讨会(ICDMW),2014年IEEE国际会议(2017年),arXiv:1706.02677
[9] Ince,H。;Trafalis,T.,回归支持向量机及其在金融预测中的应用,神经网络国际联合会议,6348-6354(2002)
[10] 贾亚德瓦;Khemchandani,R。;Chandra,S.,模式分类的双支持向量机,IEEE Trans。模式分析。机器。智力。,29, 5, 905-910 (2007)
[11] 卡卡德,S。;Tewari,A.,关于在线强凸规划算法的泛化能力,神经信息处理系统进展,801-808(2009)
[12] Khemchandani,R。;贾亚德瓦;Chandra,S.,双支持向量机中的最优核选择,Optimization Letters,377-88(2009)·兹比尔1154.90567
[13] 库马尔,M。;Gopal,M.,平滑技术在双支持向量机上的应用,模式识别。莱特。,29, 13, 1842-1848 (2008)
[14] Lal,T。;施罗德,M。;Hinterberger,T。;韦斯顿,J。;博格丹,M。;北卡罗来纳州伯鲍默。;Schölkopf,B.,BCI中的支持向量通道选择,Data Min.Knowl。发现。,51, 6, 1003-1010 (2004)
[15] Lee,Y。;Mangasarian,O.,Ssvm:用于分类的平滑支持向量机,计算。最佳方案。申请。,20, 1, 5-22 (2001) ·兹伯利1017.90105
[16] Lee,Y。;Mangasarian,O.,RSVM:简化支持向量机,第一届SIAM国际数据挖掘会议,5-7(2001)
[17] Li博士。;田,Y。;Xu,H.,深双支持向量机,数据挖掘研讨会(ICDMW),2014年IEEE国际会议,65-73(2014),IEEE
[18] Mangasarian,O。;Musicant,D.,支持向量机的连续超松弛,IEEE Trans。神经网络,10,5,1032-1037(1999)
[19] Noble,W.,《支持向量机在计算生物学中的应用》,《计算生物学的核方法》(2004)
[20] Oliveira,d.J。;Alencar,M.,使用基于svm的pegasos算法的hevc中间过程在线学习早期跳过决策方法,Electron Lett。,521227-1229(2016)
[21] Omidvar,M.N。;李,X。;Tang,K.,为大规模连续优化设计基准问题,信息科学。,316, 419-436 (2015)
[22] Peng,X.,TPMSVM:一种用于模式识别的新型双参数边缘支持向量机,模式识别。,44, 10-11, 2678-2692 (2011) ·Zbl 1218.68129号
[23] Platt,J.,使用序列最小优化快速训练支持向量机,核方法的进展-支持向量学习,185-208(1999)
[24] 齐,Z。;田,Y。;Shi,Y.,具有通用数据的双支持向量机,神经网络,36,112-119(2012)·Zbl 1258.68122号
[25] 齐,Z。;田,Y。;Shi,Y.,用于模式分类的稳健双支持向量机,模式识别,46,1,305-316(2013)·Zbl 1248.68441号
[26] 齐,Z。;田,Y。;Shi,Y.,拉普拉斯支持向量机的连续超松弛,IEEE Trans。神经网络。学习系统。,26, 4, 674-683 (2015)
[27] Reyes-Ortiz,J。;Oneto,L。;Anguita,D.,《云中的大数据分析:hadoop上的火花与beowulf上的mpi/openmp》,53,121-130(2015)
[28] Rudin,W.,《数学分析原理》,3(1964),麦格劳-希尔出版社,纽约·Zbl 0148.02903号
[29] Shai,S。;辛格,Y。;斯雷布罗,N。;Cotter,A.,Pegasos:svm的原始估计子梯度解算器,数学。程序。,127, 1, 3-30 (2011) ·Zbl 1211.90239号
[30] Shao,Y。;Chen,W。;邓,N.,二元分类问题的非并行超平面支持向量机,信息科学。,263, 22-35 (2014) ·Zbl 1328.68173号
[31] Shao,Y。;Chen,W。;张杰。;王,Z。;邓,N.,一种用于非平衡数据分类的高效加权拉格朗日双支持向量机,模式识别。,47, 9, 3158-3167 (2014) ·Zbl 1342.68271号
[32] Shao,Y。;邓,N.,基于坐标下降裕度的双支持向量机分类,神经网络,25114-121(2012)·Zbl 1259.68173号
[33] Shao,Y。;张,C。;王,X。;邓,N.,双支持向量机的改进,IEEE Trans。神经网络,22,6,962-968(2011)
[34] Sopyla,K。;Drozda,P.,支持向量机的随机梯度下降与barzilaicborwein更新步骤,Inf.Sci。,316218-233(2015年)·Zbl 1390.68555号
[35] 田,Y。;Ping,Y.,大型线性非并行支持向量机求解器,神经网络,50166-174(2014)·Zbl 1298.68231号
[36] 尼安库列夫,R。;Frandi,E。;Sartori,C.,一种新的frankcwolfe算法。大规模支持向量机训练的分析与应用,信息科学。,285,66-99(2014)·Zbl 1355.68234号
[37] Valiente,D。;吉尔,A。;Fernndez,L.,一种改进的随机梯度下降算法,用于使用全向图像的基于视图的slam,Inf.Sci。,279, 326-337 (2014)
[38] 王,Z。;Shao,Y。;Bai,L。;邓,N.,用于聚类的双支持向量机,IEEE Trans。神经网络。学习系统。,26, 10, 2583-2588 (2015)
[39] 王,Z。;Shao,Y。;Wu,T.,基于遗传算法的光滑双参数边缘支持向量机模型选择,模式识别,46,8,2267-2277(2013)·Zbl 1316.68131号
[40] 王,Z。;Shao,Y。;Wu,T.,近似参数边缘支持向量分类器及其应用,神经计算。申请。,24, 3-4, 755-764 (2014)
[41] 徐伟,面向平均随机梯度下降的最优单程大规模学习,arXiv:1107.2490;W.Xu,朝向平均随机梯度下降的最优单程大规模学习,arXiv:1107.2490
[42] 张,C。;田,Y。;邓,N.,《支持向量机对统计学习理论的新解释》,《科学中国》,第53期,第151-164页(2010年)·Zbl 1187.90221号
[43] Zhang,T.,使用随机梯度下降算法解决大规模线性预测问题,第二十届机器学习国际会议论文集,116(2004),ACM
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。