尖峰

SpicyMKL:一种多核学习的快速算法。我们提出了一种新的多核学习优化算法SpicyMKL,它适用于一般凸损失函数和一般正则化类型。提出的SpicyMKL迭代求解光滑极小化问题。因此,不需要在内部求解SVM、LP或QP。SpicyMKL可以看作是一种近似极小化方法,具有超线性收敛性。内部最小化的代价与活动核的数目大致成正比。因此,当我们以稀疏核组合为目标时,我们的算法可以很好地适应不断增加的核数。此外,我们给出了一个包含非稀疏正则化的MKL的块范数公式,如弹性网和$ell{p}$-范数正则化。扩展SpicyMKL,我们提出了一种有效的正则化框架优化方法。实验结果表明,该算法在核数较大(>1000)的情况下比现有的方法有更快的收敛速度。