×

传奇

swMATH编号: 39677
软件作者: Aaron Defazio、Francis Bach、Simon Lacoste-Julien
描述: SAGA:一种支持非强凸复合目标的快速增量梯度方法。在这项工作中,我们本着SAG、SDCA、MISO和SVRG的精神引入了一种新的优化方法SAGA,这是一组最近提出的具有快速线性收敛速度的增量梯度算法。SAGA改进了SAG和SVRG背后的理论,具有更好的理论收敛速度,并支持在正则化器上使用近似算子的复合目标。与SDCA不同,SAGA直接支持非强凸问题,并且能够适应问题的任何固有强凸性。我们给出的实验结果表明了该方法的有效性。
主页: https://paperswithcode.com/paper/saga-fast-incremental-gradient-method-with
相关软件: 阿达格拉德;伦敦银行支持向量机;菲尼托;亚当;蜘蛛增压;ProxSARAH公司;HOGWILD公司;取消锁定BoX;RMS公司;ElemStatLearn(电子状态学习);MNIST公司;帕伽索斯;到岸价格;L-BFGS公司;AlexNet公司;阿达德尔塔;ImageNet公司;新加坡元-QN;PyTorch公司;水母
引用于: 173文件
全部的 前5名

被382位作者引用

13 彼得·里奇塔里克
5 穆特,古尔布兹巴拉班
5 Nguyen,Lam M。
5 卡罗拉·比比安·施恩利布
5 马丁·塔卡
5 Tran Dinh Quoc公司
4 约翰·杜奇(John C.Duchi)。
4 爱德华·戈尔布诺夫
4 蓝,广汇
4 朱利安·迈拉尔
4 雅利安莫赫塔里
4 Phan,Dzung T。
4 张彤
3 弗朗西斯·巴赫。
3 Aleksandr Beznosikov
3 Damek Shea戴维斯
3 德里克·德里格斯
3 马蒂亚斯·约阿希姆·埃赫哈特
3 Aleksandr V.加斯尼科夫。
3 郭天德
3 李志泽
3 梁静伟
3 林启航
3 康斯坦丁·米什琴科
3 巴勃罗·帕里洛。
3 亚历杭德罗·里贝罗。
3 Wen,Zaiwen先生
3 肖仙桃
3 杨天宝
3 周毅
2 马丁·本宁
2 阿尔伯特·S·贝拉哈斯。
2 雅尔·卡蒙
2 沃尔坎·塞弗尔
2 戴玉红
2 邓、程
2 罗伯特·曼塞尔·高尔
2 谷斌
2 顾全全
2 韩聪颖
2 韩德仁
2 扎伊德·哈查伊
2 他,露露
2 塞缪尔·霍瓦思
2 黄、恒
2 弗兰克·伊特泽勒
2 Afrooz贾利勒扎德
2 乔丹、迈克尔·欧文
2 德米特里·科瓦列夫。
2 西蒙·朱利安(Simon Lacoste-Julien)
2 普亚拉塔法特
2 雷丽华
2 林洪洲
2 刘海亮
2 刘新伟
2 刘燕
2 尼古拉斯·洛伊祖
2 罗志坚
2 杰罗姆·马利克
2 安德烈·米尔扎雷克
2 穆林斯,埃里克
2 安吉莉亚·奈迪奇
2 阮富霞
2 豪尔赫·诺塞达尔
2 斯坦利·乔尔·奥斯尔
2 劳拉·帕拉吉
2 Patrinos、Panagiotis
2 范,Nhan H。
2 钱云涛
2 卡蒂亚·谢因伯格
2 亚伦·西德福德
2 孙杰
2 阿德里安·泰勒。
2 安德烈亚斯·塞米利斯
2 田旭平
2 马滕·范迪克
2 Vũ,Bng科特迪瓦
2 王庆松
2 王,肖
2 小林
2 徐,潘
2 叶继敏
2 于腾腾
2 张,金
2 张晓群
2 周冬若
1 纳曼阿加瓦尔
1 阿胡科什,马苏德
1 艾哈迈特·阿拉卡奥格鲁
1 安,阮泰
1 阿列克桑德·亚拉夫金。
1 尤西·阿杰瓦尼
1 雷扎·巴巴尼扎德
1 Barekat,法津
1 罗伯特·巴里奥
1 塔梅尔·巴沙尔
1 米哈伊尔·贝尔金
1 丹尼斯·贝洛梅斯特尼
1 Marta M.Betcke。
1 卞凤淼
…还有282位作者

按年份列出的引文