帕伽索斯

Pegasos:支持向量机的原始估计次梯度求解器。描述并分析了一种简单有效的求解支持向量机优化问题的随机次梯度下降算法。我们证明了获得精确解ϵ所需的迭代次数是O(1/ϵ),其中每个迭代操作在一个训练示例上。相比之下,以往对支持向量机的随机梯度下降方法的分析需要Ω(1/ϵ2)迭代。与以前设计的支持向量机解算器一样,迭代次数也以1/λ线性缩放,其中λ是支持向量机的正则化参数。对于线性核,我们的方法的总运行时间是O(d/(λϵ)),其中d是每个例子中非零特征数的一个界。由于运行时间不直接依赖于训练集的大小,因此得到的算法特别适合于从大数据集进行学习。我们的方法也扩展到非线性核函数,同时只处理原始目标函数,尽管在这种情况下,运行时确实线性地依赖于训练集的大小。我们的算法特别适用于大型文本分类问题,我们证明了一个数量级的速度比以前的支持向量机学习方法


zbMATH中的参考文献,1标准件)

显示84个结果中的1到20个。
按年份排序(引用)
  1. Iiduka,Hideaki:分散层次约束凸优化(2020)
  2. 江伟;西迪基,索勒:基于随机梯度下降和双坐标下降的支持向量机超参数优化(2020)
  3. 兰广辉;周志强:函数或期望约束下的随机优化算法(2020)
  4. Ahookhosh,Masoud;Neumaier,Arnold:求解高成本凸优化问题的子空间搜索最优次梯度算法(2019)
  5. Asi,Hilal;Duchi,John C.:随机(近似)近点方法:收敛性、最优性和适应性(2019)
  6. Grimmer,Benjamin:无Lipschitz连续性的确定性和随机次梯度方法的收敛速度(2019)
  7. 郭正初;石磊:在线学习算法的快速强收敛(2019)
  8. 李宁宁;薛丹;孙文宇;王晶:无约束优化问题的随机信赖域方法(2019)
  9. Shahparast,Homeira;Mansoori,Eghbal G.:使用演化的1型规则开发在线通用2型模糊分类器(2019年)
  10. Aggarwal,Charu C.:神经网络与深度学习。教科书(2018)
  11. Aggarwal,Charu C.:文本的机器学习(2018)
  12. Bottou,Léon;Curtis,Frank E.;Nocedal,Jorge:大规模机器学习的优化方法(2018)
  13. Csiba,Dominik;Richtárik,Peter:小型批次重要性抽样(2018)
  14. Daniel Horn;Demirciolu,Aydın;Bischl,Bernd;Glasmachers,Tobias;Weihs,Claus:大规模核化支持向量机的比较研究(2018)
  15. Lei,Yunwen;Shi,Lei;Guo,Zheng Chu:非规范在线学习算法的收敛性(2018)
  16. Manno,Andrea;Palagi,Laura;Sagratella,Simone:线性约束问题的并行分解方法及其在SVMs训练中的应用(2018)
  17. Nguyen,Hien D.;Jones,Andrew T.;McLachlan,Geoffrey J.:一些软边界支持向量机变体的适合流优化算法(2018)
  18. Piccialli,Veronica;Scandrone,Marco:非线性优化和支持向量机(2018)
  19. Tappenden,Rachael;Takáč,Martin;Richtárik,Peter:论平行坐标下降的复杂性(2018)
  20. vanderlaan,Mark J.;Rose,Sherri:数据科学中的目标学习。因果关系研究(2018年)