帕伽索斯

Pegasos:支持向量机的原始估计次梯度求解器。描述并分析了一种简单有效的求解支持向量机优化问题的随机次梯度下降算法。我们证明了获得精确解所需的迭代次数ϵ 是O (1/ϵ) , 其中每个迭代都在一个训练示例上运行。相比之下,以往对支持向量机的随机梯度下降方法的分析需要Ω(1/ϵ2) 迭代。与以前设计的SVM解算器一样,迭代次数也以1为线性缩放/λ, 哪里λ 是支持向量机的正则化参数。对于线性核,我们的方法的总运行时间是O (d/(λϵ)) , 其中d是每个例子中非零特征数的界。由于运行时间不直接依赖于训练集的大小,因此得到的算法特别适合于从大数据集进行学习。我们的方法也扩展到非线性核函数,同时只处理原始目标函数,尽管在这种情况下,运行时确实线性地依赖于训练集的大小。我们的算法特别适用于大型文本分类问题,我们证明了一个数量级的速度比以前的支持向量机学习方法


zbMATH中的参考文献(参考文献98篇文章,1标准件)

显示第1到第20个结果,共98个。
按年份排序(引用)
  1. 贾恩,普拉蒂克;Nagaraj,Dheeraj M。;Netrapalli,Praneth:使SGD信息的最后一次迭代理论上是最优的(2021年)
  2. 迪尤利维特,艾默里克;杜勒斯,阿兰;巴赫,弗朗西斯:弥合恒定步长随机梯度下降和马尔可夫链之间的差距(2020)
  3. 高开封;梅,刚;皮切利,弗朗西斯科;库莫,萨尔瓦托;屠京之;霍泽南:机器学习中的Julia语言:算法、应用和开放问题(2020)
  4. 哈桑,塔米尔;沙巴,朔罕;Voldman,Sergey:结构非凸问题的随机近端线性方法(2020)
  5. Iiduka,Hideaki:分散层次约束凸优化(2020)
  6. 姜伟;Siddiqui,Sauleh:基于随机梯度下降和双坐标下降的支持向量机超参数优化(2020)
  7. 兰广辉;周志强:带函数或期望约束的随机优化算法(2020)
  8. 罗萨斯科,洛伦佐;维拉,西尔维亚;ũ, B天然气ông:随机近端梯度算法的收敛性(2020)
  9. 燕,银桥;李庆娜:支持向量机的有效增广拉格朗日方法(2020)
  10. 阿霍霍霍什,马苏德;Neumaier,Arnold:求解高成本凸优化问题的子空间搜索最优次梯度算法(2019)
  11. 希拉,希拉;杜奇,约翰C.:随机(近似)近点方法:收敛性、最优性和适应性(2019)
  12. Grimmer,Benjamin:无Lipschitz连续性的确定性和随机次梯度方法的收敛速度(2019)
  13. 郭正初;石磊:在线学习算法的快速强收敛(2019)
  14. 李宁宁;薛丹;孙文宇;王静:无约束优化问题的随机信赖域方法(2019)
  15. 阮,Bac;费里,弗朗切斯克J。;莫雷尔,卡洛斯;De Baets,Bernard:集群多指标学习的有效方法(2019)
  16. 撒玛利亚,阿文;Parizi,Mahshid Salemi:如何有效地训练大规模机器学习模型(2019年)
  17. 哈帕拉斯特,荷梅拉;Mansoori,Eghbal G.:使用演化的1型规则开发在线通用2型模糊分类器(2019年)
  18. Aggarwal,Charu C.:神经网络与深度学习。教科书(2018)
  19. Aggarwal,Charu C.:文本的机器学习(2018)
  20. 博图,我é打开;柯蒂斯,弗兰克E。;Nocedal,Jorge:大规模机器学习的优化方法(2018)