卢,京;史蒂芬·C·H·海。;王佳蕾;赵培林;刘志勇 大规模在线内核学习。 (英语) Zbl 1360.68690号 J.马赫。学习。物件。 17,第47号论文,43页(2016年). 摘要:在本文中,我们提出了一个新的大规模在线内核学习框架,使内核方法在大规模在线学习应用中高效且可扩展。与通常使用一些预算维护策略来限制支持向量数量的常规预算在线内核学习方案不同,我们的框架探索了一种完全不同的核函数逼近技术方法,以使后续在线学习任务高效且可扩展。具体来说,我们提出了两种不同的在线核机器学习算法:(i)傅里叶在线梯度下降(FOGD)算法,该算法应用随机傅里叶特征来逼近核函数;和(ii)Nystrm在线梯度下降(NOGD)算法,该算法将Nystrms方法应用于近似大核矩阵。我们探索了这两种方法来处理三个在线学习任务:二进制分类、多类分类和回归。我们在大规模数据集上的实验取得了令人鼓舞的结果,验证了所提算法的有效性和效率,使其比现有的在线预算内核学习方法家族更具实用性。 引用于15文件 MSC公司: 68T05型 人工智能中的学习和自适应系统 关键词:在线学习;核近似;大规模机器学习 软件:伦敦银行支持向量机;遗忘管;图形实验室;PAMR公司;帕伽索斯;MapReduce PDF格式BibTeX公司 XML格式引用 \textit{J.Lu}等人,J.Mach。学习。第17号决议,第47号论文,43页(2016年;Zbl 1360.68690) 全文: 链接