帕伽索斯

Pegasos:支持向量机的原始估计次梯度求解器。描述并分析了一种简单有效的求解支持向量机优化问题的随机次梯度下降算法。我们证明了获得精确解ϵ所需的迭代次数是O(1/ϵ),其中每个迭代操作在一个训练示例上。相比之下,以往对支持向量机的随机梯度下降方法的分析需要Ω(1/ϵ2)迭代。与以前设计的支持向量机解算器一样,迭代次数也以1/λ线性缩放,其中λ是支持向量机的正则化参数。对于线性核,我们的方法的总运行时间是O(d/(λϵ)),其中d是每个例子中非零特征数的一个界。由于运行时间不直接依赖于训练集的大小,因此得到的算法特别适合于从大数据集进行学习。我们的方法也扩展到非线性核函数,同时只处理原始目标函数,尽管在这种情况下,运行时确实线性地依赖于训练集的大小。我们的算法特别适用于大型文本分类问题,我们证明了一个数量级的速度比以前的支持向量机学习方法


zbMATH中的参考文献(参考 93篇文章,1标准件)

显示结果1到20,共93个。
按年份排序(引用)
  1. Dieuleveut,Aymeric;Durmus,Alain;Bach,Francis:弥合恒定步长随机梯度下降和马尔可夫链之间的差距(2020)
  2. Iiduka,Hideaki:分散层次约束凸优化(2020)
  3. 江伟;西迪基,索勒:基于随机梯度下降和双坐标下降的支持向量机超参数优化(2020)
  4. 随机约束条件下的周志强算法
  5. Ahookhosh,Masoud;Neumaier,Arnold:求解高成本凸优化问题的子空间搜索最优次梯度算法(2019)
  6. Asi,Hilal;Duchi,John C.:随机(近似)近点方法:收敛性、最优性和适应性(2019)
  7. Grimmer,Benjamin:无Lipschitz连续性的确定性和随机次梯度方法的收敛速度(2019)
  8. 郭正初;石磊:在线学习算法的快速强收敛(2019)
  9. 李宁宁;薛丹;孙文宇;王晶:无约束优化问题的随机信赖域方法(2019)
  10. 贝恩-巴恩-德有效学习法(Carlos Banguan,2019年);伯纳德-莫瑞尔(Bernard-De-efficient metric);伯纳德-莫瑞尔(Bernard-De-Equific metric);伯纳德-莫瑞尔(Bernard-De-metric)集群学习法
  11. 萨迈拉,阿文;帕里齐,马哈希德萨利米:如何有效地训练大规模的机器学习模型?(2019年)
  12. Shahparast,Homeira;Mansoori,Eghbal G.:使用演化的1型规则开发在线通用2型模糊分类器(2019年)
  13. Aggarwal,Charu C.:神经网络与深度学习。教科书(2018)
  14. Aggarwal,Charu C.:文本的机器学习(2018)
  15. Bottou,Léon;Curtis,Frank E.;Nocedal,Jorge:大规模机器学习的优化方法(2018)
  16. Csiba,Dominik;Richtárik,Peter:小型批次重要性抽样(2018)
  17. Daniel Horn;Demirciolu,Aydın;Bischl,Bernd;Glasmachers,Tobias;Weihs,Claus:大规模核化支持向量机的比较研究(2018)
  18. 黄凌霄;金一飞;李健:鞍点优化支持向量机:新边界和分布式算法(2018)
  19. Zheng Yunregulated;Zheng Yunregulated算法
  20. Liu,Ying;Xu,Zhen;Li,Chunguang:分布式在线半监督支持向量机(2018)