×

基于新的损失函数调整了支持向量机。 (英语) Zbl 1185.90163号

摘要:支持向量机(SVM)由于在各个领域的成功应用,近年来受到了广泛关注。然而,在二值分类问题中,通过最大化两类之间的分离度,SVM解决方案通常会遇到两个严重的缺点。首先,SVM分离超平面通常对训练样本非常敏感,因为它强烈依赖于支持向量,而支持向量只是位于相应边缘边界错误一侧的几个点。第二,分离超平面与优化分离超平面位置时同等重要的两个类等距,而不管每个类中训练数据的数量及其分散程度。在本文中,我们提出了一种新的支持向量机解决方案,即调整支持向量机(ASVM),该方法基于一个新的损失函数来调整SVM解决方案,同时考虑到两类样本的大小和分散性。数值实验表明,ASVM优于传统SVM,尤其是当两类样本大小和离散度差异较大时。

MSC公司:

90C20个 二次规划
90立方 非线性规划
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] Batista,G.、Prati,R.C.和Monard,M.C.(2004)。平衡机器学习训练数据的几种方法的行为研究。SIGKDD探索,6(1),20-29·数字对象标识代码:10.1145/1007730.1007735
[2] Boser,B.E.、Guyon,I.M.和Vapnik,V.N.(1992年)。一种最优边缘分类器的训练算法。在第五届ACM COLT年会上。宾夕法尼亚州匹兹堡。
[3] Burges,C.J.C.(1998年)。模式识别支持向量机教程。知识发现和数据挖掘,2(2),121-167·doi:10.1023/A:1009715923555
[4] Chawla,N.V.、Japkowicz,N.和Kolcz,A.(2004)。社论:关于从不平衡数据集学习的特刊。SIGKDD探索,6(1),1-6·数字对象标识代码:10.1145/1007730.1007733
[5] Cortes,C.和Vapnik,V.(1995年)。支持向量网络。机器学习,20,273–297·Zbl 0831.68098号
[6] Eitrich,T.和Lang,B.(2006年)。非平衡数据集支持向量机学习参数的有效优化。计算与应用数学杂志,196425-436·Zbl 1097.68113号 ·doi:10.1016/j.cam.2005.09.009
[7] Elkan,C.(2001年)。成本敏感学习的基础。第十七届机器学习国际会议论文集(第239-246页)。
[8] Guyon,I.、Boser,B.和Vapnik,V.(1993)。超大VC-维度分类器的自动容量调整。神经信息处理系统的进展,5147-155。
[9] Guyon,I.、Weston,J.、Barnhill,S.和Vapnik,V.(2002)。使用支持向量机进行癌症分类的基因选择。机器学习,46389–422·Zbl 0998.68111号 ·doi:10.1023/A:1012487302797
[10] Hall,P.、Marron,J.和Neeman,A.(2005年)。高维、低样本数据的几何表示。英国皇家统计学会期刊B辑,67427-444·Zbl 1069.62097号 ·doi:10.1111/j.1467-9868.2005.00510.x
[11] Hastie,T.、Tibshirani,R.和Friedman,J.(2001)。统计学习的要素:数据挖掘、推理和预测。柏林:斯普林格·Zbl 0973.62007号
[12] Lee,Y.和Mangasarian,O.L.(2001)。SSVM:用于分类的平滑支持向量机。计算优化与应用,20(1),5–22·Zbl 1017.90105号 ·doi:10.1023/A:101125321374
[13] Lin,Y.(2002a)。分类中的支持向量机和贝叶斯规则。数据挖掘和知识发现,6(3),259–275·doi:10.1023/A:1015469627679
[14] Lin,Y.(2002b)。分类中基于保证金的损失函数注释(技术报告)。威斯康星大学统计系。
[15] Lin,Y.,Lee,Y.和Wahba,G.(2002)。支持向量机用于非标准情况下的分类。机器学习,46,191–202·兹比尔0998.68103 ·doi:10.1023/A:1012406528296
[16] Luenberger,D.G.(1984)。线性和非线性规划(第二版)。阅读:Addison-Wesley·Zbl 0571.90051号
[17] Osuna,E.、Freund,R.和Girosi,F.(1997)。支持向量机:培训和应用(AI Memo 1602)。麻省理工学院。
[18] Shen,X.、Tseng,G.C.、Zhang,X.和Wong,W.H.(2003)。关于{\(\psi\)}-学习。《美国统计协会杂志》,98,724–734·兹比尔1052.62095 ·doi:10.1198/0162145000000639
[19] Statnikov,A.、Aliferis,C.、Tsamardinos,I.、Hardin,D.和Levy,S.(2005)。微阵列基因表达癌症诊断的多类别分类方法的综合评价。生物信息学,21(5),631-643·doi:10.1093/bioinformatics/bti033
[20] Vapnik,V.(1998)。统计学习理论。纽约:威利·Zbl 0935.62007号
[21] Weiss,G.M.(2004)。稀有采矿:一个统一的框架。SIGKDD Explorations,6(1),7–19·数字对象标识代码:10.1145/1007730.1007734
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。