沙利夫·施瓦茨;张彤 正则化损失最小化的随机对偶坐标上升方法。 (英语) Zbl 1307.68073号 J.马赫。学习。物件。 14, 567-599 (2013). 摘要:随机梯度下降(SGD)由于其强大的理论保证,在解决大规模有监督机器学习优化问题(如SVM)方面已成为一种流行的方法。虽然密切相关的双坐标上升法(DCA)已在各种软件包中实现,但迄今为止,它缺乏良好的收敛性分析。本文对随机双坐标上升(SDCA)进行了新的分析,表明这类方法具有很强的理论保证,可以与SGD媲美或优于SGD。该分析证明了SDCA在实际应用中的有效性。 引用于127文件 MSC公司: 68T05型 人工智能中的学习和自适应系统 65年第68季度 算法和问题复杂性分析 关键词:随机双坐标上升;优化;计算复杂性;正则化损失最小化;支持向量机;岭回归;逻辑回归 PDF格式BibTeX公司 XML格式引用 \textit{S.Shalev-Shwartz}和\textit{T.Zhang},J.Mach。学习。第14、567--599号决议(2013年;Zbl 1307.68073) 全文: arXiv公司 链接