×

帕伽索斯

swMATH ID: 8752
软件作者: Shai Shalev-Shwartz、Yoram Singer、Nathan Srebro、Andrew Cotter
描述: Pegasos:支持向量机的原始估计子梯度解算器。我们描述并分析了一种简单有效的随机子梯度下降算法,用于解决支持向量机(SVM)的优化问题。我们证明了获得精确解所需的迭代次数为O(1/ϵ),其中每个迭代操作于单个训练示例。相比之下,以前对支持向量机随机梯度下降方法的分析需要Ω(1/ϵ2)迭代。与之前设计的SVM求解器一样,迭代次数也与1/λ成线性关系,其中λ是SVM的正则化参数。对于线性内核,我们的方法的总运行时间是O(d/(λϵ)),其中d是每个示例中非零特征数的界。由于运行时间不直接取决于训练集的大小,因此生成的算法特别适合于从大型数据集进行学习。我们的方法还扩展到非线性核,同时只处理原始目标函数,尽管在这种情况下,运行时确实与训练集大小线性相关。我们的算法特别适合于大型文本分类问题,在这种情况下,我们证明了与以前的SVM学习方法相比,其速度提高了一个数量级
主页: http://link.springer.com/article/10.1007/s10107-010-0420-4
相关软件: 伦敦银行支持向量机;LIBLINEAR银行;UCI-毫升;传奇;阿达格拉德;SSVM(SSVM);SVM灯;ImageNet公司;新加坡元-QN;RCV1型;亚当;Scikit公司;AlexNet公司;SIFT公司;L-BFGS公司;bmrm公司;遗忘管;RSVM公司;MNIST公司;SeDuMi公司
引用于: 120文件
全部的 前5名

306位作者引用

5 彼得·里奇塔里克
4 马丁·塔卡
金、荣
朱生火
2 查鲁·C·阿加瓦尔。
2 弗朗西斯·巴赫。
2 尼古拉斯·库伦(Nicolas P.Couellan)。
2 高,杨
2 本杰明·格里默
2 郭正楚
2 伊杜卡,Hideaki
2 蓝,广汇
2 尼尔斯·兰德维尔
2 李庆娜
2 安德烈·都铎·帕特拉斯库
2 Phung和Dinh Q。
2 维罗妮卡·皮夏利
2 洛伦佐·罗萨斯科。
2 马可·西安德龙
2 沙利夫·施瓦茨
2 石磊
2 田英杰
2 西尔维娅·维拉
2 Vũ,Bng科特迪瓦
2 Vuacetic,斯洛博丹
2 王、庄
2 杨天宝
2 翟婷婷
2 周、水胜
1 阿胡科什,马苏德
1 杰西·阿拉玛
1 海克特·阿连德
1 亚历山大·安多尼
1 阿西,希拉尔
1 白、兰
1 白、左
1 迪米特里斯·约翰·伯西马斯
1 Aleksandr Beznosikov
1 伯恩德·比施尔
1 马修·布拉斯科(Matthew B.Blaschko)。
1 马修·布隆德尔
1 莱昂·博图
1 内德·H·比肖蒂。
1 科林·伯恩斯
1 曹隆兵
1 埃米利奥·卡里佐萨
1 普拉巴卡尔·查利西
1 张玉明
1 程益元
1 周殷兰
1 加泰罗尼亚·卢西亚科奇亚努
1 安德鲁·科特
1 多米尼克·西巴
1 崔江涛
1 萨尔瓦多科莫
1 Frank E.柯蒂斯。
1 伯纳德·贝茨
1 朱塞佩·德尼古拉
1 吕克·德·雷德
1 艾丁·德米西奥卢
1 邓乃阳
1 邓万玉
1 迪亚斯,马特奥
1 艾梅尔·迪乌列韦特
1 弗朗西斯科·迪努佐
1 内马尼亚·朱里奇
1 帕韦·德罗兹达
1 约翰·杜奇(John C.Duchi)。
1 阿里特拉·杜塔
1 范,能
1 冯辉
1 奥里松·佩雷拉·费雷拉
1 弗朗西斯科·费里。
1 托马斯·芬利
1 伊曼纽尔·弗兰迪
1 保罗·弗雷斯科尼
1 高、开封
1 高伟
1 赛义德·加迪米
1 托拜厄斯·格拉斯马赫
1 吉奥瓦尼·努内斯·格拉吉利亚
1 顾斌
1 郝志峰
1 大卫·尼尔·海耶斯
1 塔米尔·哈赞
1 何江华
1 汤姆·M·海斯克斯。
1 Ho,Derek Y.H。
1 史蒂芬·C·H·海。
1 杰弗里·霍姆斯
1 丹尼尔·霍恩(Daniel R.Horn)。
1 侯棣
1 徐春南
1 胡波
1 黄光斌
1 黄、韩珊
1 黄凯珠
1 黄,凌霄
1 拉蒙韦尔塔
1 泽南·霍
…还有206位作者

按年份列出的引文