×

具有多个局部极小值的函数的凸核低估。 (英语) 邮编1098.90055

摘要:通过线性规划,利用给定函数的样本点,通过凸核函数的线性组合,从下面近似出具有多个局部极小值的函数(mathbb R^n)。然后,使用线性二次核的线性方程解算器或高斯核的牛顿法最小化所得到的凸核欠估计量,以获得原始函数的全局最小值的近似值。应用此过程的原始搜索区域的连续收缩导致高斯核函数相对于合成非凸分段二次函数的全局极小值的相当准确的估计,估计值在\(0.0001\%)以内,其中全局极小值是精确已知的。高斯核低估将使用分段线性低估得到的相对误差提高了10倍[见作者J.Global Optim.32,No.1,1-9(2005;Zbl 1098.90072号]同时将计算时间平均缩短了28倍以上。

MSC公司:

90C26型 非凸规划,全局优化
90元53 拟Newton型方法
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] V.Cherkasky和F.Mulier,《从数据中学习——概念、理论和方法》。约翰·威利父子公司:纽约,1998年·Zbl 0960.6202号
[2] S.Cost和S.Salzberg,“带符号特征学习的加权最近邻算法”,《机器学习》,第10卷,第57–58页,1993年。,
[3] N.Cristianini和J.Shawe-Taylor,支持向量机简介。剑桥大学出版社:马萨诸塞州剑桥,2000年·Zbl 0994.68074号
[4] L.Devroye和T.J.Wagner,“歧视中的最近邻方法”,收录于P.R.Krishnaiah和L.Kanal法律公告,(编辑),《统计手册》,第2卷:分类、模式识别和降维,荷兰北部。1982., ·Zbl 0511.62069号
[5] K.A.Dill、A.T.Phillips和J.B.Rosen,“CGU:分子结构预测的算法”,载于L.T.Biegler等人(编辑),《数学及其应用中的IMA卷:大规模优化与应用III:分子结构与优化》,1997年,第1-22页·Zbl 0884.65050号
[6] T.Hastie、R.Tibshirani和J.Friedman,《统计学习的要素》。Springer-Verlag:纽约,2001年·Zbl 0973.62007号
[7] Y.-J.Lee和O.L.Mangasarian,“SSVM:平滑支持向量机”,《计算优化与应用》,第20卷,第5-22页,2001年。威斯康星大学数据挖掘研究所,技术报告99-03。ftp://ftp.cs.wisc.edu/pub/dmi/tech-reports/99-03.ps。, ·Zbl 1017.90105号
[8] O.L.Mangasarian,“广义支持向量机”,载于A.Smola、P.Bartlett、B.Schölkopf和D.Schuurman(编辑),《大边距分类器的进展》,麻省理工学院出版社:马萨诸塞州剑桥,2000年,第135–146页。ftp://ftp.cs.wisc.edu/math-prog/tech-reports/98-14.ps。,
[9] O.L.Mangasarian和D.R.Musicant,“稳健线性和支持向量回归”,IEEE模式分析和机器智能汇刊,第22卷,第9期,第950-955页,2000年。ftp://ftp.cs.wisc.edu/pub/dmi/技术报告/99-09.ps。,
[10] O.L.Mangasarian和D.R.Musicant,“通过线性编程实现大规模内核回归”,《机器学习》,第46卷,第255-269页,2002年。ftp://ftp.cs.wisc.edu/pub/dmi/tech-reports/99-02.ps。, ·Zbl 0998.68106号
[11] O.L.Mangasarian、J.B.Rosen和M.E.Thompson,“通过分段线性低估实现全局最小化”,《技术报告03-03》,威斯康星州麦迪逊市威斯康星大学计算机科学系数据挖掘研究所,2003年6月。ftp://ftp.cs.wisc.edu/pub/dmi/tech-reports/03-03ps。《全球优化杂志》,第32卷,第1期,第1-9页,2005年。,
[12] J.C.Mitchell、A.T.Phillips、J.B.Rosen和L.F.Ten Eyck,“蛋白质对接中的耦合优化”,摘自《计算化学和分子生物学中的优化》,第191-207页,Kluwer学术出版社:荷兰多德雷赫特,2000年。,
[13] A.T.Phillips、J.B.Rosen和K.A.Dill,“分子结构预测的凸全局低估”,载于P.M.Pardalos等人(编辑),《从局部到全局优化》,第1-18页,Kluwer学术出版社:荷兰多德雷赫特,2001年·Zbl 1005.92013年
[14] J.B.Rosen和R.F.Marcia,“凸二次近似”,《计算优化与应用》,第28卷,第173–184页,2004年·兹比尔1056.90109
[15] B.Schölkopf、P.Bartlett、A.Smola和R.Williamson,“缩小管子:一种新的支持向量回归算法”,收录于M.S.Kearns、S.A.Solla和D.A.Cohn(编辑),《神经信息处理系统的进展》11,麻省理工学院出版社:马萨诸塞州剑桥,1999年。可在http://www.kernel-machines.org/publications.html。第330–336页,
[16] B.Schölkopf和A.Smola,《用内核学习》。麻省理工学院出版社:马萨诸塞州剑桥,2002年·Zbl 1019.68094号
[17] A.N.Tikhonov和V.Y.Arsenin,《不恰当问题的解决方案》。约翰·威利父子公司:纽约,1977年。,
[18] V.N.Vapnik,《统计学习理论的本质》。第2版,施普林格出版社:纽约,2000年·Zbl 0934.62009号
此参考列表基于出版商或数字数学图书馆提供的信息。它的项目与zbMATH标识符启发式匹配,并且可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。