×

监督分类和数学优化。 (英语) Zbl 1349.68135号

摘要:数据挖掘技术通常要求解决优化问题。监督分类,特别是支持向量机,可以被视为一个范例。本文强调了数学优化方法与监督分类之间的一些联系。研究表明,数学优化的许多不同领域在离线监督分类方法中发挥着重要作用。此外,数学优化对于解决分类中的重要问题非常有用,例如识别相关变量、提高分类器的可解释性或处理数据中的模糊/噪声。

MSC公司:

68T05型 人工智能中的学习和自适应系统
62小时30分 分类和区分;聚类分析(统计方面)
90 C90 数学规划的应用
PDF格式BibTeX公司 XML格式引用
全文: 内政部 链接

参考文献:

[1] 阿尔瓦雷斯,F。;López,J。;拉米雷斯;Héctor,C.,二阶锥规划的可变度量内部近端算法:结构优化和支持向量机的应用,优化方法和软件,25,6,859-881(2010)·Zbl 1226.90041号
[2] 阿马尔迪,E。;Kann,V.,关于线性系统中最小化非零变量或未满足关系的逼近性,理论计算机科学,209237-260(1998)·Zbl 0915.68072号
[3] An,L.T.H。;Tao,P.D.,DC(凸函数的差异)编程和DCA与真实世界非凸优化问题的DC模型重访,运筹学年鉴,133,23-46(2005)·Zbl 1116.90122号
[5] 阿普特,C。;刘,B。;Pednault,体育博士。;Smyth,P.,数据挖掘的商业应用,ACM通信,45,8,49-53(2002)
[6] Astorino,A。;Fuduli,A。;Gaudioso,M.,球形分离的DC模型,《全球优化杂志》,48657-669(2010)·Zbl 1206.90120号
[7] Astorino,A。;Fuduli,A。;Gorgone,E.,分类问题中的非光滑性,优化方法和软件,23,5,675-688(2008)·兹比尔1154.90643
[8] Astorino,A。;Gaudioso,M.,分类问题的椭球分离,优化方法和软件,20,2-3,267-276(2005)·Zbl 1072.90027号
[9] Audet,C。;Hansen,P。;卡拉姆。;Ng、S。;Perron,C.T.,精确(l_2)范数平面分离,《优化快报》,2,4,483-495(2008)·Zbl 1159.90514号
[11] Baesens,B。;塞提诺,R。;梅斯,C。;Vanthienen,J.,使用神经网络规则提取和决策表进行信用风险评估,管理科学,49,3311-329(2003)·Zbl 1232.91684号
[12] Bagirov,A.M.,《Max-min可分性,优化方法和软件》,20,2-3,277-296(2005)·Zbl 1129.90059号
[13] Bagirov,A.M。;鲁比诺夫,A。;北苏霍鲁科娃。;Yearwood,J.,《通过非光滑和全局优化进行非监督和监督数据分类》,TOP,11,1-75(2003)·Zbl 1048.65059号
[14] Bagirov,A.M。;Ugon,J。;韦伯,D。;Karasözen,B.,通过增量最大可分性进行分类,模式分析与应用,14165-174(2011)·Zbl 1428.68230号
[16] 新罕布什尔州巴拉卡特。;Bradley,A.P.,《从支持向量机中提取规则:顺序覆盖方法》,IEEE知识与数据工程学报,19,6,729-741(2007)
[17] Bartlett,P.L。;M.I.乔丹。;McAuliffe,J.D.,凸性、分类和风险边界,美国统计协会杂志,101,473,138-156(2006)·Zbl 1118.62330号
[18] Bennett,K.P。;坎贝尔,C.,支持向量机:炒作还是哈利路亚?,SIGKDD探索,2,2,1-13(2000)
[19] Bennett,K.P。;北卡罗来纳州克里斯蒂亚尼尼。;肖-泰勒,J。;Wu,D.,扩大感知器决策树的边界,机器学习,41,3,295-313(2000)·Zbl 0971.68079号
[20] Bennett,K.P。;Demiriz,A.,《半监督支持向量机》,(Kearns,M.S.;Solla,S.A.;Cohn,D.A.,《神经信息处理系统的进展》,第11卷(1999),麻省理工学院出版社:麻省理学院出版社剑桥,马萨诸塞州),368-374
[21] Bennett,K.P。;Mangasarian,O.L.,两个线性不可分集的鲁棒线性规划判别,优化方法和软件,1,23-24(1992)
[22] Bennett,K.P。;Parrado Hernández,E.,优化和机器学习研究的相互作用,机器学习研究杂志,71265-1281(2006)·Zbl 1222.68146号
[23] 贝雷格,S。;Díaz-Báñez,J.M。;佩雷兹·兰特罗,P。;文图拉,I.,平面上移动点的最大箱问题,组合优化杂志,22517-530(2011)·Zbl 1236.90096号
[24] Bertsimas,D。;贝加纳多蒂尔,M.V。;Kane,硕士。;Kryder,J.Ch。;潘迪,R。;Vempala,S.,《医疗成本的算法预测》,运筹学,56,6,1382-1392(2008)·Zbl 1167.91406号
[25] Bertsimas,D。;Shioda,R.,通过整数优化进行分类和回归,运筹学,55,2,252-271(2007)·Zbl 1167.90593号
[26] 更好,M。;手套,F。;Samorani,M.,《通过垂直和切割多超平面决策树归纳进行分类》,《决策支持系统》,48,430-436(2010)
[27] Bille,P.,《树编辑距离及相关问题的调查》,《理论计算机科学》,337,217-239(2005)·Zbl 1078.68152号
[28] Bock,J。;Gough,D.,从一级结构预测蛋白质相互作用,生物信息学,17455-460(2001)
[29] Boros,E。;Hammer,P.L。;茨城,T。;Kogan,A.,数字数据的逻辑分析,数学规划,79,163-190(1997)·兹伯利0887.90179
[30] Boser,B。;盖恩,I。;Vapnik,V.N.,最佳边缘分类器的训练算法,(Haussler,D.,第五届ACM计算学习理论研讨会论文集(1992)),144-152
[31] 布拉德利,P.S。;法耶兹,U.M。;Mangasarian,O.L.,《数据挖掘的数学编程:公式和挑战》,《计算信息杂志》,11,3,217-238(1999)·Zbl 0973.90096号
[32] 布拉德利,P.S。;Mangasarian,O.L。;Musicant,D.,《大规模数据集中的优化方法》(Abello,J.;Pardalos,P.M.;Resende,M.G.C.,《海量数据集手册》(2002年),Kluwer学术出版社:Kluwer-学术出版社波士顿),439-471·Zbl 1024.68019号
[33] 布拉德利,P.S。;Mangasarian,O.L。;Street,W.N.,《通过数学编程进行特征选择》,《信息计算杂志》,10,2,209-217(1998)·Zbl 1034.90529号
[34] Breiman,L.,Bagging predictors,机器学习,26,2,123-140(1996)·Zbl 0858.68080号
[35] Breiman,L.,《随机森林,机器学习》,45,1,5-32(2001)·Zbl 1007.68152号
[36] 布雷曼,L。;弗里德曼,J.H。;Olshen,R.A。;Stone,C.J.,《分类和回归树》(1984),华兹华斯:加利福尼亚州华兹华斯·贝尔蒙特·Zbl 0541.62042号
[37] 布罗德利,C.E。;Utgoff,P.E.,多元决策树,机器学习,19,1,45-77(1995)·Zbl 0831.68091号
[38] Brooks,J.P.,具有斜坡损失和硬裕度损失的支持向量机,运筹学,59,2467-479(2011)·兹比尔1228.90057
[39] 布鲁克斯,J.P。;Lee,E.K.,基于混合整数编程的多类别约束判别模型的一致性分析,运筹学年鉴,174,147-168(2010)·Zbl 1185.90156号
[40] Burges,C.J.C.,模式识别、数据挖掘和知识发现支持向量机教程,2,2,121-167(1998)
[41] Burges,C.J.C。;Crisp,D.J.,核方法的唯一性定理,神经计算,55187-220(2003)
[42] 曹立军。;Tay,F.E.H.,金融时间序列预测中具有自适应参数的支持向量机,IEEE神经网络汇刊,14,6,1506-1518(2003)
[43] Carrizosa,E.,用支持向量机推导多准则决策中的权重,TOP,14,2,399-424(2006)·Zbl 1278.90189号
[44] Carrizosa,E.,《支持向量机和距离最小化》,(Pardalos,P.M.;Hansen,P.,《数据挖掘和数学编程》(CRM会议记录和课堂讲稿),第45卷(2008年),美国数学学会),1-13·Zbl 1213.90194号
[46] Carrizosa,E。;Martín-Barragán,B.,通过生物目标边际最大化模型进行两组分类,《欧洲运筹学杂志》,173,3746-761(2006)·Zbl 1120.90027号
[47] Carrizosa,E。;马丁·巴拉根,B。;Romero Morales,D.,《带测量成本的多组支持向量机:生物目标方法》,《离散应用数学》,156950-966(2008)·Zbl 1152.90536号
[48] Carrizosa,E。;马丁·巴拉根,B。;Romero Morales,D.,二值化支持向量机,《信息计算杂志》,22,1,154-167(2010)·Zbl 1243.62088号
[49] Carrizosa,E。;马丁·巴拉根,B。;Romero Morales,D.,《在监督分类中检测相关变量和交互作用》,《欧洲运筹学杂志》,2131260-269(2011)
[50] Carrizosa,E。;马丁·巴拉根,B。;罗梅罗·莫拉莱斯博士。;Plastria,F.,《关于选择最近邻分类的全球最佳原型子集》,《计算信息杂志》,19,3,470-479(2007)·Zbl 1241.90086号
[51] Carrizosa,E。;Plastia,F.,《最佳预期距离分离半空间》,运筹学数学,33,3,662-677(2008)·Zbl 1218.90159号
[53] Cerverón,V。;Ferri,F.J.,《迈向最小一致子集的另一步:凝聚最近邻规则的禁忌搜索法》,IEEE系统、人与控制论事务——B部分:控制论,31,408-413(2001)
[55] 华盛顿州Chaovaltwongse。;Fan,Y.-J。;Sachdeo,R.C.,《大脑异常活动分类的新型优化模型》,运筹学,56,6,1450-1460(2008)·Zbl 1167.92325号
[56] Chapelle,O.,训练原始支持向量机,神经计算,19,5,1155-1178(2007)·Zbl 1123.68101号
[57] 夏贝尔,O。;信德瓦尼,V。;Keerthi,S.S.,《半监督支持向量机的分支与边界》,(Schölkopf,B.;Platt,J.;Hofmann,T.,《神经信息处理系统的进展》,第19卷(2007年),麻省理工学院出版社:麻省理学学院出版社,马萨诸塞州剑桥),217-224
[58] 夏贝尔,O。;信德瓦尼,V。;Keerthi,S.S.,《半监督支持向量机的优化技术》,《机器学习研究杂志》,9,203-233(2008)·Zbl 1225.68158号
[59] 夏贝尔,O。;Vapnik,V。;O.布斯克。;Mukherjee,S.,为支持向量机选择多个参数,机器学习,46,131-159(2002)·Zbl 0998.68101号
[60] 陈,N。;卢·W。;杨,J。;Li,G.,化学中的支持向量机(2004),世界科学:世界科学新加坡
[61] Chen,Y.-L。;Tang,K。;沈荣杰。;Hu,Y.-H.,多商店环境下的市场篮分析,决策支持系统,40,2,339-354(2005)
[62] 张,K.-W。;郭敬通(Kwok,J.T.)。;法学硕士。;Tsui,K.-Ch.,为个性化营销挖掘客户产品评级,决策支持系统,35,2,231-243(2003)
[63] 科恩,G。;希拉里奥,M。;Geissbuhler,A.,通过遗传算法选择支持向量分类器的模型——医学决策支持的应用,(Barrero,J.M.;Martin-Sanchez,F.;Maojo,V.;Sanz,F..,ISBMDA 2004年会议记录。计算机科学讲稿,第3337卷(2004),施普林格:施普林格柏林),200-211
[64] 科洛伯特,R。;Bengio,S.,SVMTorch:大规模回归问题的支持向量机,机器学习研究杂志,1143-160(2001)·Zbl 1052.68111号
[65] 科洛伯特,R。;辛兹,F。;韦斯顿,J。;Bottou,L.,《大规模转换SVM》,《机器学习研究杂志》,第7期,1687-1712页(2006年)·Zbl 1222.68173号
[67] Conforti,D。;Guido,R.,通过半定编程的基于内核的支持向量机:在医学诊断中的应用,计算机与运筹学,37,81389-1394(2010)·Zbl 1183.68470号
[68] 科恩·D·。;Dhanens,C。;Jourdan,L.,《运筹学与数据挖掘之间的协同作用:多目标方法的新兴应用》,《欧洲运筹学杂志》,第221、3、469-479页(2012年)·Zbl 1253.90002号
[69] 科尔特斯,C。;Mohri,M.,AUC优化与错误率最小化,(Thrun,S.;Saul,L.K.;Schölkopf,B.,《神经信息处理系统的进展》,第16卷(2004),麻省理工学院出版社:麻省理学学院出版社,马萨诸塞州剑桥),313-320
[70] 科尔特斯,C。;Vapnik,V.,支持向量网络,机器学习,20,273-297(1995)·兹比尔08316.8098
[71] 盖,T.M。;Hart,P.E.,最近邻模式分类,IEEE信息理论汇刊,13,21-27(1967)·兹比尔0154.44505
[72] 北卡罗来纳州克里斯蒂亚尼尼。;Shawe-Taylor,J.,《支持向量机和其他基于核的学习方法简介》(2000),剑桥大学出版社·Zbl 0994.68074号
[73] 崔,G。;Wong,M.L。;Lui,H.K.,《直接营销响应模型的机器学习:具有进化编程的贝叶斯网络》,《管理科学》,52,4,597-612(2006)·Zbl 1232.90232号
[74] Dasarathy,B.V.,《最近邻(NN)规范:NN模式分类技术》(1991),IEEE计算机学会出版社:IEEE计算机协会出版社,加利福尼亚州洛斯·阿拉米托斯
[75] Decoste,D。;Schölkopf,B.,《训练不变支持向量机》,机器学习,46,161-190(2002)·兹比尔0998.68102
[76] Dekel,O。;O.沙米尔。;Xiao,L.,学习用缺失和损坏的特征进行分类,机器学习,81,149-178(2010)·Zbl 1470.68095号
[77] Demiriz,A。;Bennett,K.P。;Shawe-Taylor,J.,通过列生成提升线性规划,机器学习,46,225-254(2002)·Zbl 0998.68105号
[78] Devroye,L。;Györfi,L。;Lugosi,G.,模式识别的概率理论(1996),Springer:Springer纽约·Zbl 0853.68150号
[79] (Diederich,J.,《从支持向量机中提取规则》,《计算智能研究》,第80卷(2008年),施普林格出版社)·Zbl 1138.68003号
[80] Dietterich,T.G.,《构建决策树集合的三种方法的实验比较:打包、增强和随机化》,机器学习,40,2,139-157(2000)
[81] Doumpos,M。;Chatzi,E。;Zopounidis,C.,一些分类方法的实验评估,《全局优化杂志》,36,1,33-50(2006)·Zbl 1113.62077号
[82] 杜,P。;彭杰。;Terlaky,T.,《自适应支持向量机:建模与实验》,计算管理科学,6,1,41-51(2009)·Zbl 1170.68554号
[83] Duan,K。;Keerthi,S.S。;Poo,A.N.,调整SVM超参数的简单性能度量的评估,神经计算,51,41-59(2003)
[84] 杜阿尔特·席尔瓦,A.P。;Stam,A.,判别分析的二阶数学规划公式,《欧洲运筹学杂志》,72,4-22(1994)·Zbl 0788.62052号
[85] 福尔克,J.E。;Karlov,V.E.,通过二次函数实现有限集的稳健分离,计算机与运筹学,28,6,537-561(2001)
[87] 福塞特,T。;Provost,F.,自适应欺诈检测,数据挖掘和知识发现,1,3,291-316(2005)
[88] 费利西,G。;Truempha,K.,《逻辑域学习的MINSAT方法》,《计算信息杂志》,14,1,20-36(2002)·Zbl 1238.68044号
[89] 马里兰州费里斯。;Munson,T.S.,大规模支持向量机的内点方法,SIAM优化期刊,13,3,783-804(2003)·兹比尔1039.90092
[90] 马里兰州费里斯。;Munson,T.S.,《半光滑支持向量机》,《数学规划》,101,1185-204(2004)·Zbl 1076.90041号
[91] 罚款,S。;Scheinberg,K.,使用低阶核表示的高效SVM训练,机器学习研究杂志,2242-264(2001)·Zbl 1037.68112号
[92] Fisher,R.A.,《分类学问题中多重测量的使用》,《优生学年鉴》,第7179-188页(1936年)
[93] 弗里德,北。;Glover,F.,判别问题的简单但强大的目标规划模型,《欧洲运筹学杂志》,744-60(1981)·Zbl 0456.90075号
[94] 弗里德,北。;Glover,F.,评估替代线性规划模型以解决两组判别问题,决策科学,17,2,151-162(1986)
[95] 弗伦德,Y。;Schapire,R.E.,《在线学习的决策理论推广及其在助推中的应用》,《计算机与系统科学杂志》,55,1,119-139(1997)·Zbl 0880.68103号
[96] 弗里德曼,J.H。;Popescu,B.E.,通过规则集合进行预测学习,《应用统计年鉴》,第2、3、916-954页(2008年)·Zbl 1149.62051号
[99] Fung,G。;Mangasarian,O.L.,用于未标记数据分类的半监督支持向量机,优化方法和软件,15,1,29-44(2001)·Zbl 1075.68633号
[100] Fung,G。;Mangasarian,O.L.,支持向量机分类的特征选择牛顿方法,计算优化与应用,28,2,185-202(2004)·Zbl 1056.90103号
[101] Fung,G。;Mangasarian,O.L.,多类别近端支持向量机分类器,机器学习,59,77-97(2005)·Zbl 1101.68758号
[102] Furey,T。;北卡罗来纳州克里斯蒂亚尼尼。;达菲,N。;Bednarski,D.W。;舒默,M。;Haussler,D.,使用微阵列表达数据对癌症组织样本进行支持向量机分类和验证,生物信息学,16906-914(2000)
[103] 加夫里沙卡,V.V。;Banerjee,S.,支持向量机作为股市波动预测的有效框架,计算管理科学,3147-160(2006)·Zbl 1142.91718号
[104] Van Gestel,T。;苏肯斯,J.A.K。;Baesens,B。;Viaene,S。;Vantheinen,J。;Dedene,G.,基准最小二乘支持向量机分类器,机器学习,54,1,5-32(2004)·Zbl 1078.68737号
[105] 吉尔摩,P.C。;Gomory,R.E.,《切割库存问题的线性规划方法》,运筹学,9849-859(1961)·Zbl 0096.35501号
[106] 格拉迪,N。;Baesens,B。;Croux,Ch.,使用客户终身价值建模流失,《欧洲运营研究杂志》,197,1402-411(2009)·兹比尔1157.91396
[107] 戈切特,W。;斯塔姆·A。;斯里尼瓦桑,V。;Chen,S.X.,使用线性规划的多组判别分析,运筹学,45213-225(1997)·Zbl 0890.90180号
[109] 盖恩,I。;Elisseeff,A.,《变量和特征选择简介》,《机器学习研究杂志》,31157-1182(2003)·Zbl 1102.68556号
[110] 盖恩,I。;韦斯顿,J。;巴恩希尔,S。;Vapnik,V.,使用支持向量机进行癌症分类的基因选择,机器学习,46,389-422(2002)·Zbl 0998.68111号
[111] Haasdonk,B.,具有不确定核的SVM的特征空间解释,IEEE模式分析和机器智能汇刊,27,4,482-492(2005)
[112] 哈登,J。;Tiwari,A。;罗伊·R。;Ruta,D.,《计算机辅助客户流失管理:最先进和未来趋势》,《计算机与运营研究》,34,10,2902-2917(2007)·Zbl 1185.90119号
[113] Hamel,L.H.,《支持向量机的知识发现》(2009),威利
[114] Hammer,P.L。;Kogan,A。;Lejeune,M.A.,《逆向工程国家风险评级:组合非递归模型》,《运筹学年鉴》,79,163-190(2009)
[115] Han,J。;奥特曼,R.B。;库马尔,V。;Mannila,H。;Pregibon,D.,《数据挖掘中的新兴科学应用》,ACM通讯,45,8,54-58(2002)
[116] 汉德,H。;Mannila,H。;Smyth,P.,《数据挖掘原理》(2001),麻省理工出版社
[117] Hart,P.E.,《压缩最近邻规则》,《IEEE信息理论汇刊》,第14期,第515-516页(1968年)
[118] 哈斯蒂,T。;Rosset,S。;蒂布希拉尼,R。;Zhu,J.,支持向量机的整个正则化路径,机器学习研究杂志,51391-1415(2004)·Zbl 1222.68213号
[119] 哈斯蒂,T。;Tibshirani,R.,判别自适应最近邻分类,IEEE模式分析和机器智能汇刊,18,6,607-616(1996)
[120] 哈斯蒂,T。;Tibshirani,R.,《两两耦合分类》,《统计年鉴》,26,2,451-471(1998)·Zbl 0932.62071号
[121] 哈斯蒂,T。;蒂布希拉尼,R。;Friedman,J.,《统计学习的要素:数据挖掘、推理和预测》(2001),Springer:Springer New York·Zbl 0973.62007号
[122] 亨德勒,R。;Hendler,F.,《了不起的拉斯维加斯的收入管理:将客户关系管理和收入管理结合起来以实现盈利能力最大化》,《收入与定价管理杂志》,第3期,第173-79页(2004年)
[123] Herbrich,R.,学习内核分类器。理论与算法(2002),麻省理工学院出版社·Zbl 1504.68002号
[124] 霍夫曼,T。;Schölkopff,B。;Smola,A.J.,机器学习中的内核方法,《统计年鉴》,36,3,1171-1220(2008)·Zbl 1151.30007号
[125] Izenman,A.J.,《现代多元统计技术》(2008),Springer:Springer New York·兹比尔1155.62040
[126] 姜涛(Jiang,T.)。;Wang,L。;Zhang,K.,《树木排列——树木编辑的替代方法》,理论计算机科学,143,1137-148(1995)·兹伯利0873.68150
[127] Joachims,T.,《使大规模SVM学习实用化》,(Schölkopf,B.;Burges,C.J.C.;Smola,A.J.,《核方法的进展——支持向量学习》(1999),麻省理工学院出版社:麻省理学学院出版社,马萨诸塞州剑桥),169-184
[128] 卡拉姆。;卡波罗西,G。;Hansen,P.,通过可变邻域搜索分离任意形式超平面,IMA管理数学杂志,18,2,173-189(2007)·Zbl 1177.90376号
[129] 考夫曼,L。;Rousseeuw,P.J.,《在数据中寻找群体》。聚类分析导论(1990),威利:威利纽约·Zbl 1345.62009号
[130] Keerthi,S.S.,使用半径/边界和迭代算法有效调整SVM超参数,IEEE神经网络汇刊,131225-1229(2002)
[131] Keerthi,S.S。;夏贝尔,O。;DeCoster,D.,构建分类器复杂度降低的支持向量机,机器学习研究杂志,71493-1515(2006)·Zbl 1222.68230号
[132] Keerthi,S.S。;DeCoster,D.,用于快速求解大规模线性SVM的修正有限牛顿法,机器学习研究杂志,6,341-361(2005)·Zbl 1222.68231号
[133] Keerthi,S.S。;Gilbert,E.G.,用于SVM分类器设计的广义SMO算法的收敛性,机器学习,46,1-3,351-360(2002)·兹比尔0998.68109
[134] Keerthi,S.S。;Lin,Ch.-J.,高斯核支持向量机的渐近行为,神经计算,151667-1689(2003)·Zbl 1086.68569号
[135] Keerthi,S.S。;Shevade,S.K。;Murthy,K.,改进Platt的SMO算法用于SVM分类器设计,神经计算,13,637-649(2001)·Zbl 1085.68629号
[137] Kunapuli,G。;Bennett,K.P。;胡,J。;Pang,J.-S.,支持向量机的双层模型选择,(Pardalos,P.M.;Hansen,P.,数据挖掘和数学编程。CRM会议记录和课堂讲稿,第45卷(2008),美国数学学会),129-158·Zbl 1145.68488号
[138] Kuncheva,L.I.,编辑中的适应度函数\(k)-遗传算法的NN参考集,模式识别,30,6,1041-1049(1997)
[139] 柳叶刀,G。;北卡罗来纳州克里斯蒂亚尼尼。;Bartlett,P。;Ghaoui,L。;Jordan,M.I.,用半定编程学习核矩阵,机器学习研究杂志,5,27-72(2004)·Zbl 1222.68241号
[142] Lee,Y.-J。;Mangasarian,O.L.,SSVM:用于分类、计算优化和应用的平滑支持向量机,20,5-22(2001)·Zbl 1017.90105号
[143] Leslie,C。;Eskin,E。;韦斯顿,J。;Noble,W.,《支持向量机蛋白质分类的错配字符串核》(Becker,S.;Thrun,S.);Obermayer,K.,《神经信息处理系统的进展》,第15卷(2003),麻省理工学院出版社:麻省理学学院出版社剑桥,马萨诸塞州),1441-1448
[144] 莱斯曼,S。;Voß,S.,《客户关系管理中决策支持的监督分类》(Bortfeldt,A.;Homberger,J.;Kopfer,H.;Pankratz,G.;Strangmeier,R.,《智能决策支持》(2008),Gabler:Gabler-Wiesbaden),231-253
[145] Lin,C.J。;Lucidi,S。;Palagi,L。;A.里西。;Sciandone,M.,受上下界约束的单线性约束问题的分解算法模型,优化理论与应用杂志,141,1107-126(2009)·Zbl 1168.90556号
[146] Lin,Y.,SVM和分类、数据挖掘和知识发现中的贝叶斯规则,6259-275(2002)
[147] 刘,H。;侯赛因,F。;Tan,C.L。;Dash,M.,《离散化:一种使能技术》,数据挖掘和知识发现,6,4393-423(2002)
[148] 刘,Y。;Wu,Y.,通过混合整数规划优化(\psi-\operatorname{learning}),中国统计,16,441-457(2006)·Zbl 1331.62313号
[149] 刘,Y。;Zhang,H.H。;帕克,C。;Ahn,J.,具有自适应惩罚的支持向量机,计算统计与数据分析,51,12,6380-6394(2007)·兹比尔1446.62179
[150] Loh,W.-Y.,《提高分类树的精度》,《应用统计年鉴》,第3期,第4期,第1710-1737页(2009年)·Zbl 1184.62109号
[151] 卢,W.-Y。;Vanichsetakul,N.,通过广义判别分析进行树结构分类,美国统计协会杂志,83,403,715-725(1988)·Zbl 0649.62055号
[152] Lorena,A.C。;de Carvalho,A.C.P.L.F.,多类问题中SVM参数值的进化调整,神经计算,71,3326-3334(2008)
[153] Loveman,G.,《数据挖掘中的钻石》,《哈佛商业评论》,第81、5、109-113页(2003年)
[154] Lozano,M。;索托卡,J.M。;桑切斯,J.S。;平面图,F。;佩·卡尔斯卡,E。;Duin,R.P.W.,向量空间中基于原型分类的原型优化算法的实验研究,模式识别,39,10,1827-1838(2006)·Zbl 1097.68619号
[155] Lucidi,S。;Palagi,L。;A.里西。;Sciandone,M.,支持向量机的收敛分解算法,计算优化与应用,38,217-234(2007)·Zbl 1172.90443号
[157] 卢斯,R。;d'Aspremont,A.,不定核支持向量机分类,数学规划计算,197-118(2009)·Zbl 1191.68511号
[158] Mangasarian,O.L.,通过线性规划实现模式的线性和非线性分离,运筹学,31445-453(1965)
[159] Mangasarian,O.L.,误分类最小化,《全局优化杂志》,5309-323(1994)·Zbl 0814.90081号
[160] Mangasarian,O.L.,《任意形式的分离平面》,《运营研究快报》,24,15-23(1999)·Zbl 1028.90037号
[161] Mangasarian,O.L.,分类、优化方法和软件的有限牛顿法,17,913-929(2002)·兹比尔1065.90078
[162] Mangasarian,O.L.,基于知识的线性规划,SIAM优化杂志,15,2,375-382(2004)·Zbl 1114.90070号
[163] Mangasarian,O.L.,通过无约束凸可微最小化的精确1-范数支持向量机,机器学习研究杂志,1517-1530(2006)·兹比尔1211.68329
[164] Mangasarian,O.L。;Musiant,D.R.,《主动集支持向量机分类》,(Leen,T.K.;Dietterich,T.G.;Tresp,V.,《神经信息处理系统的进展》,第13卷(2001年),麻省理工学院出版社:麻省理工学院出版社,马萨诸塞州剑桥),577-583
[165] Mangasarian,O.L。;西北部街道。;Wolberg,W.H.,通过线性规划进行乳腺癌诊断和预后,运筹学,43,4,570-577(1995)·Zbl 0857.90073号
[166] Mangasarian,O.L。;Thompson,M.E.,通过无约束支持向量机进行大规模数据分类,优化理论与应用杂志,131,3,315-325(2006)·Zbl 1139.90017号
[167] M.V.Mannino。;Koushik,M.V.,《成本最小化逆分类问题:遗传算法方法》,决策支持系统,29,3,283-300(2000)
[168] Marron,J.S。;托德,M.J。;Ahn,J.,《距离加权歧视》,《美国统计协会杂志》,102,480,1267-1271(2007)·Zbl 1332.62213号
[169] Martens,D。;Baesens,B。;Van Gestel,T.,通过主动学习从支持向量机中提取分解规则,IEEE知识与数据工程汇刊,21,2,178-191(2009)
[170] Martens,D。;Baesens,B。;Van Gestel,T。;Vantheinen,J.,《使用支持向量机规则提取的可理解信用评分模型》,《欧洲运筹学杂志》,183,3,1466-1476(2007)·Zbl 1278.91177号
[171] 马丁·S。;罗伊,D。;Faulon,J.-L.,使用特征产品预测蛋白质相互作用,生物信息学,21,218-226(2005)
[172] 马丁·德·迭戈,I。;穆尼奥斯,A。;Moguerza,J.M.,支持向量框架内核矩阵组合方法,机器学习,78,1-2,137-174(2010)·Zbl 1470.68144号
[173] Megiddo,N.,《关于多面体可分性的复杂性,离散与计算几何》,3325-337(1988)·Zbl 0669.68035号
[174] Meinshausen,N.,《节点收获》,《应用统计年鉴》,4,4,2049-272(2010)·Zbl 1220.62084号
[175] 梅塞尔,S。;Mattfeld,D.,《运筹学与数据挖掘的协同作用》,《欧洲运筹学杂志》,206,1,1-10(2010)·Zbl 1188.90001号
[176] Min,J.H。;Lee,Y.-Ch.,使用支持向量机进行破产预测,并优化选择核函数参数,应用专家系统,28,4,603-614(2005)
[177] Moguerza,J.M。;穆尼奥斯,A.,《支持向量机及其应用》,《统计科学》,21,3,322-336(2006)·Zbl 1246.68185号
[179] Mucherino,A。;Papajorgji,P。;Pardalos,P.M.,《应用于农业的数据挖掘技术调查》,运筹学,9,121-140(2009)·Zbl 1172.90421号
[180] Murthy,S.K。;Kasif,S。;Salzberg,S.,《斜决策树归纳系统》,《人工智能研究杂志》,2,1-32(1994)·兹比尔0900.68335
[181] Nakayama,H.等人。;Yun,Y.B。;阿萨达,T。;Yoon,M.,机器学习的MOP/GP模型,《欧洲运筹学杂志》,166,3,756-768(2005)·Zbl 1080.68095号
[182] Nanni,L。;Lumini,A.,用于原型简化的粒子群优化,神经计算,721092-1097(2009)
[183] Nguyen,M.H。;de la Torre,F.,支持向量机的最佳特征选择,模式识别,43584-591(2010)·Zbl 1187.68411号
[184] 努涅斯,H。;安古洛,C。;Catalá,A.,支持向量机的基于规则的学习系统,《神经处理快报》,24,1,1-18(2006)
[185] Orsenigo,C。;Vercellis,C.,基于最小特征离散支持向量机的多元分类树,IMA管理数学杂志,14,3,221-234(2003)·Zbl 1115.90406号
[186] Orsenigo,C。;Vercellis,C.,通过禁忌搜索的离散支持向量决策树,计算统计与数据分析,47,2,311-322(2004)·Zbl 1429.62261号
[189] 帕雷德斯,R。;Vidal,E.,《学习原型和距离:基于最近邻错误最小化的原型简化技术》,模式识别,39,2,180-188(2006)·Zbl 1080.68647号
[190] 帕雷德斯,R。;Vidal,E.,学习加权度量以最小化最近邻分类错误,IEEE模式分析和机器智能汇刊,281100-110(2006)
[191] 佩德罗索,J.P。;Murata,N.,《不同规范的支持向量机:动机、公式和结果》,《模式识别快报》,第22期,第1263-1272页(2001年)·Zbl 0990.68117号
[192] Plastria,F。;Carrizosa,E.,规范距离和中值超平面,优化理论与应用杂志,110,1,173-182(2001)·Zbl 1039.90036号
[194] Plastria,F。;De Bruyne,S。;Carrizosa,E.,《基于交替局部搜索的VNS线性分类》,《运筹学年鉴》,174121-134(2010)·Zbl 1185.90136号
[195] Platt,J.C.,《使用序列最小优化快速训练支持向量机》(Schölkopf,B.;Burges,C.J.C.;Smola,A.J.,《内核方法的进展——支持向量学习》(1999),麻省理工学院出版社:麻省理学学院出版社剑桥,MA),185-208
[197] Quinlan,J.R.,C4.5:机器学习程序(1993),Morgan Kaufmann:Morgan Koufmann San Mateo,CA
[198] 里夫金,R。;Klautau,A.,为一对多分类辩护,《机器学习研究杂志》,5101-141(2004)·Zbl 1222.68287号
[199] Rinaldi,F。;肖恩,F。;Sciandrone,M.,用于最小化多面体集上的零范数的凹形编程,计算优化和应用,46,3,467-486(2010)·兹比尔1229.90170
[200] Rinaldi,F。;Sciandone,M.,结合线性支持向量机和凹优化的特征选择,优化方法和软件,25,1,117-128(2010)·Zbl 1190.90145号
[201] 里普利,B.D.,模式识别和神经网络(1996),剑桥大学出版社:剑桥大学出版社,英国剑桥·Zbl 0853.62046号
[203] 罗梅罗·莫拉莱斯博士。;Wang,J.,使用数据挖掘预测服务预订收入管理的取消率,《欧洲运筹学杂志》,202,2,554-562(2010)·兹比尔1175.90232
[204] 罗森布拉特,F.,《神经动力学原理:感知器和大脑机制理论》(1962年),斯巴达书籍:斯巴达图书华盛顿特区·Zbl 0143.43504号
[205] Rubin,P.A.,《线性规划和参数方法对两组判别问题的比较》,《决策科学》,21,1,373-386(1990)
[206] Saigo,H。;诺沃津,S。;Kadowaki,T。;Kudo,T。;Tsuda,K.,gBoost:图形分类和回归的数学编程方法,机器学习,75,69-89(2009)·Zbl 1470.68167号
[207] Saigo,H。;维特,J.P。;Ueda,N。;Akutsu,T.,使用字符串对齐核进行蛋白质同源性检测,生物信息学,20,1682-1689(2004)
[208] Scheinberg,K.,《SVM主动集方法的有效实现》,《机器学习研究杂志》,7,2237-2257(2006)·Zbl 1222.90043号
[209] Schölkopf,B。;Smola,A.,《用内核学习》(2002),麻省理工学院出版社
[210] Sebastian,F.,自动文本分类中的机器学习,ACM计算调查,34,1,1-47(2002)
[212] 沙列夫·施瓦茨,Sh。;辛格,Y。;斯雷布罗,N。;Cotter,A.,Pegasos:SVM的原始估计子梯度解算器,《数学规划B系列》,127,1,3-30(2011)·Zbl 1211.90239号
[213] 沈,X。;曾国藩。;张,X。;Wong,W.H.,On(psi-\operatorname{learning}),《美国统计协会杂志》,98,724-734(2003)·Zbl 1052.62095号
[214] Shivaswamy,P.K。;巴塔查里亚,Ch。;Smola,A.J.,《处理缺失和不确定数据的二阶锥规划方法》,《机器学习研究杂志》,第7期,第1283-1314页(2006年)·Zbl 1222.68305号
[215] Smola,A.J。;奥斯瓦里,Z.L。;Williamson,R.C.,《用网络产品内核进行正则化》(Leen,T.K.;Dietterich,T.G.;Tresp,V.,《神经信息处理系统的进展》,第13卷(2001年),麻省理工学院出版社:麻省理学学院出版社,马萨诸塞州剑桥),308-314
[216] Smola,A.J。;Schölkopf,B.,《支持向量回归教程》,《统计与计算》,第14期,199-222页(2004年)
[217] Sonnenburg,S。;Rätsch,G。;瑞士谢弗。;Schölkopf,B.,大规模多核学习,机器学习研究杂志,7,1531-1565(2006)·Zbl 1222.90072号
[218] Stam,A.,《统计分类的非传统方法:对规范方法的一些看法》,《运筹学年鉴》,第74期,第1-36页(1997年)·Zbl 0888.90161号
[219] Steinwart,I.,《支持向量机的稀疏性——一些渐近尖锐界限》,(Thrun,S.;Saul,L.K.;Schölkopf,B.,《神经信息处理系统的进展》,第16卷(2004),麻省理工学院出版社:麻省理学学院出版社剑桥,MA),169-184
[220] Sueyoshi,T.,DEA判别分析:八种判别分析方法的方法比较,《欧洲运筹学杂志》,169,1,247-272(2006)·Zbl 1101.90383号
[221] 苏肯斯,J.A.K。;Vandewalle,J.,最小二乘支持向量机分类器,《神经处理快报》,9,293-300(1999)
[222] 税务,D.M.G。;Duin,R.P.W.,支持向量域描述,模式识别快报,20,11-13,1191-1199(1999)
[223] Teo,C.H。;Vishwanathan,S.V.N。;Smola,A。;Le,Q.V.,正则化风险最小化的捆绑方法,机器学习研究杂志,11,311-365(2010)·Zbl 1242.68253号
[224] 特拉法利斯,T.B。;Gilbert,R.C.,使用支持向量机的稳健分类和回归,《欧洲运筹学杂志》,173,3893-909(2006)·Zbl 1132.62336号
[225] 特拉法利斯,T.B。;Gilbert,R.C.,分类和计算问题的稳健支持向量机,优化方法和软件,22,1,187-198(2007)·Zbl 1116.62070号
[226] 曾,P。;Yun,S.,线性约束光滑优化和支持向量机训练的坐标梯度下降法,计算优化与应用,47,2,179-206(2010)·Zbl 1226.90062号
[227] Turny,P.D.,《成本敏感分类:混合遗传决策树归纳算法的实证评估》,《人工智能研究杂志》,2369-409(1995)
[228] 尤尼,F。;Türkay,M.,多类数据分类问题的混合整数编程方法,《欧洲运筹学杂志》,173,3,910-920(2006)·Zbl 1131.90435号
[229] Vapnik,V.,《统计学习理论的本质》(1995),斯普林格·弗拉格·Zbl 0833.62008号
[230] Vapnik,V.,《统计学习理论》(1998),威利·Zbl 0935.62007号
[231] Vapnik,V。;Chapelle,O.,支持向量机的误差期望界,神经计算,12013-2036(2000)
[232] 瓦格纳,R.A。;Fischer,M.J.,《串对串校正问题》,《计算机协会期刊》,21,1168-173(1974)·Zbl 0278.68032号
[233] Wang,L。;Shen,X.,On(l_1)-范数多类支持向量机:方法论和理论,美国统计协会杂志,102583-594(2007)·兹比尔1172.62317
[235] 韦斯顿,J。;Elisseeff,A。;Schölkopf,B。;Tipping,M.,《零范数与线性模型和核方法的使用》,《机器学习研究杂志》,31439-1461(2003)·Zbl 1102.68605号
[236] 韦斯顿,J。;慕克吉,S。;夏贝尔,O。;庞蒂尔,M。;Poggio,T。;Vapnik,V.,SVM的特征选择,(Leen,T.K.;Dietterich,T.G.;Tresp,V.《神经信息处理系统的进展》,第13卷(2001年),麻省理工学院出版社:麻省理学院出版社,马萨诸塞州剑桥),668-674
[237] Wilfong,G.,最近邻问题,国际计算几何与应用杂志,2,4383-416(1992)·兹比尔0776.68102
[238] Woodsend,K。;Gondzio,J.,混合MPI/OpenMP并行线性支持向量机训练,《机器学习研究杂志》,1937-1953(2009)·Zbl 1235.68205号
[239] Woodsend,K。;Gondzio,J.,利用大规模线性支持向量机训练中的可分性,计算优化与应用,49,2,241-269(2011)·兹比尔1219.90210
[240] 吴,X。;库马尔,V。;昆兰,J.R。;Ghosh,J。;杨琼。;Motoda,H.,《数据挖掘中的十大算法》,《知识与信息系统》,第14、1、1-37页(2008年)
[241] Wu,Y。;Liu,Y.,鲁棒截断铰链损失支持向量机,美国统计协会杂志,102974-983(2007)·Zbl 1469.62293号
[242] Xu,L.,从优化角度研究机器学习问题,《全球优化杂志》,47369-401(2010)·Zbl 1200.90179号
[244] Yuille,A.L。;Rangarajan,A.,凹-凸过程,神经计算,15,915-936(2003)·Zbl 1022.68112号
[245] Zhang,H.H。;Ahn,J。;林,X。;Park,C.,使用非凸惩罚的支持向量机进行基因选择,生物信息学,22,1,88-95(2006)
[246] 张凯。;Shasha,D.,树间编辑距离的简单快速算法及相关问题,SIAM计算杂志,18,6,1245-1262(1989)·Zbl 0692.68047号
[247] 朱,J。;Rosset,S。;哈斯蒂,T。;Tibshirani,R.,1-范数支持向量机,(Thrun,S.;Saul,L.K.;Schölkopf,B.,《神经信息处理系统的进展》,第16卷(2004),麻省理工学院出版社:麻省理学学院出版社,马萨诸塞州剑桥),49-56
[248] Zopounidis,C。;Doumpos,M.,《多标准分类和排序方法:文献综述》,《欧洲运筹学杂志》,138,2,229-246(2002)·Zbl 1010.90032号
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。