简单的

简单点。多核学习(MKL)的目标是在有监督的学习环境中同时学习一个核函数及其相关的预测器。对于支持向量机,最近提出了一种基于半无限线性规划的多核学习算法。这种方法通过迭代使用现有的支持向量机代码,使MKL易于处理大规模问题,从而开辟了新的视角。然而,这种迭代算法需要多次迭代才能收敛到一个合理的解。在本文中,我们通过一个加权的2-范数正则化公式来解决MKL问题,并且在权重上附加了一个鼓励稀疏核组合的约束。除了学习组合外,我们还解决了一个标准的支持向量机优化问题,其中核定义为多个核的线性组合。我们提出了一种求解该MKL问题的算法SimpleMKL,并通过证明这两种方法的等价性,对基于混合范数正则化的MKL算法提供了新的见解。我们展示了SimpleMKL如何应用于二元分类之外,用于回归、聚类(一类分类)或多类分类等问题。实验结果表明,该算法收敛速度快,与其它MKL算法相比,其效率有明显提高。最后,我们说明了MKL对一些基于小波核的回归函数和与多类分类问题相关的模型选择问题的有用性。


zbMATH中的参考文献(参考文献69条)

显示第1到第20个结果,共69个。
按年份排序(引用)
  1. 阿齐兹内贾德、沙扬;Unser,Michael:具有稀疏约束的多核回归(2021)
  2. 韩彪;商、朝;黄德贤:多核学习辅助稳健优化:学习算法、计算可处理性及在多阶段决策中的应用(2021)
  3. 江,何;陶长琪;东,姚;熊,任:基于复合正则化的鲁棒低阶多核学习(2021)
  4. 唐晶晶;何一伟;田英杰;刘,大连;寇,刚;Alsaadi,Fawaz E.:耦合损失和自用特权信息引导的多视角迁移学习(2021)
  5. 丁启明;威尔斯,乔纳森R。;Washio,Takashi:隔离核:高效和有效大规模在线内核学习的X因素(2021)
  6. 王培炎;蔡东峰:基于经验目标核的多核学习(2020)
  7. 赢了,大汉;曼祖尔,哈桑;Chaovalitwongse,Wanpracha:网络数据中群体特征选择的凸优化(2020)
  8. 沈燕宁;陈天一;Giannakis,Georgios B.:未知动态环境下基于随机特征的在线多核学习(2019)
  9. 唐晶晶;田英杰;刘,大连;寇刚:多视点学习的耦合特权核方法(2019)
  10. 铃木,太极:多核学习的学习理论(2018)
  11. 唐晶晶;田英杰;刘晓辉;李德伟;吕、贾;寇刚:改进的多视图特权支持向量机(2018)
  12. 王伟;王浩;张、陈;高、杨:基于信息论的跨域度量与多核学习(2018)
  13. 燕、彩霞;罗,闽南人;刘欢;李志辉;郑庆华:Top-(k)多特征多类支持向量机(2018)
  14. 赵金伟;喜,新红;史正浩;东,龙雷;刘、余;阎瑞萍;李秀秀:基于属性间不完全关系的回归学习(2018)
  15. 兰、梁;张凯;葛汉城;程伟;刘军;劳伯,安德烈亚斯;李,小李;王军;Zha,Hongyuan:低阶分解满足核学习:广义Nyström方法(2017)
  16. 刘巍巍;Tsang,Ivor W.:使决策树在超高特征和标签维度上可行(2017)
  17. 王晓明;黄增喜;杜亚军:利用radius-margin-bound改进局部多核学习(2017)
  18. 徐丽香;陈秀;牛心;张程;罗斌:一个具有再生性的多属性卷积核(2017)
  19. 克里斯曼,安德烈亚斯;弗罗里安邓伯特;向道红:关于机器学习中的可拓定理及其与普遍一致性的联系(2016)
  20. 冈齐奥、雅克;巴勃罗,冈萨雷斯·布雷维斯;Munari,Pedro:用原始-双列生成方法进行大规模优化(2016)