{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{-“日期-部件”:[[2024,9,7]],“日期-时间”:“2024-09-07T08:47:06Z”,“时间戳”:1725698826542},“出版商位置”:“美国纽约州纽约市”,“引用-计数”:57,“出版者”:“ACM”,“许可证”:[{“开始”:{-date-parts“:[2024,1,4]],”日期时间“:”2024-01-04T00:00:00Z“,”时间戳“:1704326400000},“content-version”:“vor”,“delay-in-days”:365,“URL”:“http://www.acm.org\/publications\/policys\/corpyright_policy#Background”}],“funder”:[{“DOI”:“10.13039\/1000006754”,“name”:“陆军研究实验室”,“DOI-asserted-by”:“publisher”,“award”:[“W911NF-17-2-0196”],“id”:[}“id”:“10.13029\/100006754”,“id-type”:“DOI”,“断言者”:“publisher”}]}],“content-domain”:{“domain”:[“dl.acm.org”],“crossmark-restriction”:true},“short-container-title”:[],“published-print”:{“date-parts”:[[2023,1,4]]},”DOI“:”10.1145\/3571306.3571393“,”type“:”proceedings-article“,”created“:{”date-part“:[2023,1,3]],”date-time“:”2023-01-03T11:17:1 2Z“,”时间戳“:1672744632000},”页面“:”80-89“,“update-policy”:“http://\/dx.doi.org\/10.1145\/crossmark-policy”,“source”:”Crossref“,”is-referenced-by-count“:1,”title“:[“冗余对分布式优化和学习中恢复力的影响”],“prefix”:“10.1145”,“volume”::“1”,“author”:[{“ORCID”:“http://\/ORCID.org\/00000-0002-4528-3847”,“authenticated-ORCID”:false,“give”:“Shuo”,“family”:“刘”,“sequence”:“first”,“affiliation”:[{“name”:“Georgetown University,United States”}]},{“ORCID”:“http://\/ORCID.org\/0000-0003-4252-9319”,“authenticated-ORCID”:false,“given”:”Nirupam“,”family“:”Gupta“,”sequence“:”additional“,”affiliation:[{”name“:”\u00c9cole Polytechnology F\u00e9d\u00e9瑞士洛桑市罗勒“}]},{“ORCID”(ORCID):“http://\/orcid.org\/00000-0001-5104-8977”,“authenticated-orcid”:false,“given”:“Nitin H.”,“family”:“Vaidia”,“sequence”:“additional”,“affiliation”:[{“name”:“Georgetown University,United States”}]}],“member”:“320”,“published-online”:{“date-parts”:[2023,1,4]]},“reference”:[[{”key“e_1_3_2_1_1_1_1_2”,“doi-asserted-by”:“publisher”,“doi”:“10.1109\/CDC.2012.6426626”},{“key”:“e_1_3_2_1_2_1”,“unstructured”:“泽源Allen-Zhu和Elad Hazan.2016。优化目标之间的最佳黑盒减少。arXiv预印arXiv:1603.05642(2016)。泽源·艾伦·朱和伊拉德·哈赞。2016年,优化目标之间的最佳黑盒减少。arXiv预印arXiv:1603.05642(2016)。“},{”volume-title“:”第十届USENIX网络系统设计与实现研讨会(NSDI 13)“,”年份“:”2013“,”作者“:”Ananthanarayanan Ganesh“,”key“:”e_1_3_2_1_3_1“,”非结构化“:”Ganesh Ananthanaarayanan、Ali Ghodsi、Scott Shenker和Ion Stoica。2013 . 有效的掉队者缓解:克隆人的攻击。在第十届USENIX网络系统设计与实现研讨会(NSDI 13)上。185\u2013198。Ganesh Ananthanaarayanan、Ali Ghodsi、Scott Shenker和Ion Stoica。2013年,有效缓解掉队者:克隆人的攻击。在第十届USENIX网络系统设计与实现研讨会(NSDI 13)上。185\u2013198.“},{”key“:”e_1_3_2_1_4_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/JPROC.2020.3026619”},“volume-title”:“第31届神经信息处理系统国际会议论文集。118\u2013128”,“年份”:“2017”,“作者”:“Blanchard Peva”,“key”:“e_3_2_5_1”,”非结构化“:”Peva Blanchard、El\u00a0Mahdi El\u00a0Mhamdi、Rachid Guerraoui和Julien Stainer。2017 . 与对手的机器学习:拜占庭容忍梯度下降。第31届神经信息处理系统国际会议论文集。118\u2013128。佩瓦·布兰查德(Peva Blanchard)、艾尔瓦·马赫迪(El\u00a0Mahdi)、艾尔瓦·哈姆迪(El\ u00a0)、拉希德·格拉乌伊(Rachid Guerraoui)和朱利安·斯塔纳(Julien Stainer)。2017.与对手的机器学习:拜占庭容忍梯度下降。第31届神经信息处理系统国际会议论文集。118\u2013128.“},{“volume-title”:“在线学习和随机近似。神经网络在线学习17,9”,“年份”:“1998”,“作者”:“Bottou L\u00e9on”,“密钥”:“e_1_3_2_1_6_1”,“非结构化”:“L\u001e9on Bottou.1998。在线学习和随机近似。神经网络中的在线学习17,9(1998),142。博图L\u00e9。1998年。在线学习和随机近似。神经网络中的在线学习17,9(1998),142。“},{“卷时间”:“神经信息处理系统的进展20(NIPS)”,“年份”:“2007年”,“作者”:“Bottou L\u00e9on”,“密钥”:“e_1_3_2_1_7_1”,“非结构化”:“L\u000e9on Bottous and Olivier Bousquet.2008。大规模学习的权衡。神经信息处理系统进展20(NIPS 2007)。NIPS基金会,161\u2013168。Bottou和Olivier Bousquet的L\u00e9。2008年,大规模学习的权衡。神经信息处理系统进展20(NIPS 2007)。NIPS基金会,161\u2013168.“},{”key“:”e_1_3_2_1_8_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1137\/16M1080173”},“volume-title”:“通过乘数交替方向方法进行分布式优化和统计学习”,“author”:“Boyd Stephen”,“key”:“e_1_ 3_2_1 _9_1”,“unstructured”:“Stephen Boyd,Neal Parikh,and Eric Chu.2011。通过交替方向乘数法进行分布式优化和统计学习。现为Publishers Inc。斯蒂芬·博伊德(Stephen Boyd)、尼尔·帕里克(Neal Parikh)和埃里克·朱(Eric Chu)。2011年,通过乘数交替方向方法进行分布式优化和统计学习。Now Publishers Inc.“},{“volume-title”:“机器学习国际会议。PMLR,903\u2013912”,“年份”:“2018”,“作者”:“陈玲娇”,“密钥”:“e_1_3_2_10_1”,”非结构化“:”陈凌娇、王宏毅、查查里·查尔斯和迪米特里斯·帕皮利奥普洛斯。2018 . 德拉科:通过冗余梯度进行拜占庭式的分布式训练。在机器学习国际会议上。PMLR,903\u2013912。陈凌娇、王宏毅、查查里·查尔斯和迪米特里斯·帕皮利奥普洛斯。2018年,德拉科:通过冗余梯度进行拜占庭式的分布式训练。在机器学习国际会议上。PMLR,903\u2013912.“},{”key“:”e_1_3_2_11_1“,”doi-asserted-by“:”crossref“,”first page“:“1”,“doi”:“10.1145\/3154503”,“article-title”:“对抗环境下的分布式统计机器学习:拜占庭梯度下降”,“volume”:“1“,“author”:“Chen Yudong”,“year”:“2017”,“unstructured”:“陈玉东、苏丽丽和徐嘉明。2017 . 对抗环境中的分布式统计机器学习:拜占庭梯度下降。ACM计算机系统测量与分析会议录1,2(2017),2013年1月25日。陈玉东、苏丽丽和徐嘉明。2017.对抗环境中的分布式统计机器学习:拜占庭梯度下降。ACM关于计算系统测量和分析的会议记录1,2(2017),1\u201325.”,“新闻标题”:“ACM关于计算机系统测量和解析的会议记录”},{“关键”:“e_1_3_2_12_1”,“非结构化”:“Tarin Clanuwat Mikel Bober-Irizar Asanobu Kitamoto Alex Lamb Kazuaki Yamamoto and David Ha.2018。日本古典文学深度学习。arXiv预印本arXiv:1812.01718(2018)。塔林·克兰努瓦特·米凯尔·博贝尔·伊里扎尔·阿萨诺布·北本亚历克斯·兰姆·山本和大卫·哈。2018年,日本古典文学深度学习。arXiv预印arXiv:1812.01718(2018)。“},{”key“:”e_1_3_2_13_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1016\/j.advwatres.2011.04.013”},“volume-title”:“The Conference on Systems and Machine Learning(SysML)”,“year”:“2019”,“author”:“Damaskinos Georgios”,“key”:“e_3_21_14_1”,“unstructured”:”乔治奥斯·达马斯基诺斯(Georgios Damaskinos)、El\u00a0Mahdi El\u0a0Chamdi、Rachid Guerraoui、Arsany Hany\u00a 0Abdelmessih Guirguis和S\u00e9bastien Louis\u00a0 Alexandre Rouault。2019 . 聚合器:通过鲁棒梯度聚合进行拜占庭机器学习。2019年,系统与机器学习会议(SysML)。乔治奥斯·达马斯基诺斯(Georgios Damaskinos)、El\u00a0Mahdi El\u0a0Chamdi、Rachid Guerraoui、Arsany Hany\u00a 0Abdelmessih Guirguis和S\u00e9bastien Louis\u00a0 Alexandre Rouault。2019.Aggregathor:通过强大的梯度聚合实现拜占庭式机器学习。在The Conference on Systems and Machine Learning(SysML),2019年。“},{“volume-title”:“SAGA:支持非强凸复合目标的快速增量梯度法。arXiv预印本arXiv:1407.0202(2014)。”,“年份”:“2014”,“作者”:“Defazio Aaron”,“密钥”:“e_1_3_2_15_1”,“非结构化”:“亚伦·德法齐奥(Aaron Defazio)、弗朗西斯·巴赫(Francis Bach)和西蒙·拉科斯特·朱利安(Simon Lacoste-Julien)。2014 . SAGA:一种支持非强凸复合目标的快速增量梯度方法。arXiv预印本arXiv:1407.0202(2014)。亚伦·德法齐奥(Aaron Defazio)、弗朗西斯·巴赫(Francis Bach)和西蒙·拉科斯特·朱利安(Simon Lacoste-Julien)。2014.SAGA:支持非强凸复合目标的快速增量梯度法。arXiv预印本arXiv:1407.0202(2014)。“},{”key“:”e_1_3_2_16_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/TAC.2016.2525015”},“key”:“e_1_ 3_2_17_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/2796314.2745873“}tin Vaidya,2021年。基于范数比较梯度消除的拜占庭容错分布式机器学习。2021年,IEEE第51届年度可靠系统和网络国际研讨会(DSN-W)。IEEE 175\u2013181。Nirupam Gupta Shuo Liu和Nitin Vaidya。2021.采用基于范数的比较梯度消除的拜占庭容错分布式机器学习。2021年IEEE第51届年度可靠系统和网络国际研讨会(DSN-W)。IEEE 175\u2013181.“,”DOI“:”10.1109\/DSN-W52860.2021.0037“},{”key“:”e_1_3_2_19_1“,”unstructured“:”Nirupam Gupta and Nitin\u00a0H Vaidya.2020。协同优化中的弹性:冗余和独立的成本函数。arXiv预印arXiv:2003.09675(2020)。Nirupam Gupta和Nitin\u00a0H Vaidya。2020年。协作优化的弹性:冗余和独立的成本函数。arXiv预印arXiv:2003.09675(2020)。“},{”key“:”e_1_3_2_1_20_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/ISIT.2018.8437467”},“{”密钥“:”e_1_3_2_1_21_1“,”非结构化“:”Robert Hannah and Wotao Yin.2017。每秒迭代次数更多,质量相同\u2013为什么异步算法可能大大优于传统算法。arXiv预印arXiv:1708.05136(2017)。罗伯特·汉纳和尹沃涛。2017.每秒迭代次数更多,质量相同\u2013为什么异步算法可能大大优于传统算法。arXiv预印arXiv:1708.05136(2017)。},{“volume-title”:“使用预测方差减少加速随机梯度下降。神经信息处理系统的进展26”,“年份”:“2013年”,“作者”:“Johnson Rie”,“关键”:“e_1_3_2_1_22_1”,“非结构化”:“Rie Johnson和Tong Zhang.2013。使用预测方差减少加速随机梯度下降。神经信息处理系统的进展26(2013),315\u2013323。Rie Johnson和Tong Zhang。2013年,使用预测方差减少加速随机梯度下降。神经信息处理系统进展26(2013),315\u2013323。“},{”key“:”e_1_3_2_1_23_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/ISIT.2017.8007058”},“key”:“e_1_ 3_2_1_2 4_1”,“首页”:“5434”,“article-title”:“通过数据编码缓解分布式优化中的拖沓”,”volume“:“30”,“author”:“Karakus Can”,《年份》:“2017年,“非结构化”:“坎卡拉库斯、孙一凡、苏哈斯·迪加维和尹沃涛。2017 . 通过数据编码减少分布式优化中的掉队现象。神经信息处理系统进展30(2017),5434\u2013 5442。坎卡拉库斯、孙一凡、苏哈斯·迪加维和尹沃涛。2017年。通过数据编码缓解分布式优化中的落后现象。《神经信息处理系统的进展》30(2017),5434\u20135442.“,“期刊标题”:“神经信息处理系统的进展”},{“密钥”:“e_1_3_2_1_25_1”,“doi断言”:“出版商”,“doi”:“10.5555\/3322706.3362013”},{“卷标题”:“国际机器学习大会。PMLR,5311\u20135319”,“年份”:“2021”,“作者”:“Karimireddy Sai\u00a0Praneeth”,“key”:“e_1_3_2_1_26_1”,“unstructured”:“Sai\u 0a0Praneeth Karimieddy,Lie He,and Martin Jaggi。2021 . 拜占庭稳健优化的历史教训。在机器学习国际会议上。PMLR,5311\u20135319。Sai\u00a0Praneeth Karimiredy、Lie He和Martin Jaggi。2021.拜占庭稳健优化的历史学习。在机器学习国际会议上。PMLR,5311\u20135319.“},{”key“:”e_1_3_2_1_27_1“,”unstructured“:”Jakub Kone\u010dn\u1ef3 Brendan McMahan和Daniel Ramage.2015。联合优化:数据中心之外的分布式优化。arXiv预印arXiv:1511.03575(2015)。Jakub Kone\u010dn\u1ef3 Brendan McMahan和Daniel Ramage。2015.联合优化:数据中心以外的分布式优化。arXiv预印arXiv:1511.03575(2015)。“},{”key“:”e_1_3_2_1_28_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145 \/357172.357176”},“{”密钥“:”e_1_3_2_1_29_1“、”非结构化“:”John Langford Alexander Smola和Martin Zinkevich。2009。慢学习者速度快。arXiv预印arXiv:0911.0491(2009)。约翰·朗福德·亚历山大·斯莫拉和马丁·津科维奇。2009年。学习速度慢的人学习速度快。arXiv预印arXiv:0911.0491(2009)。“},{”volume-title“:”机器学习异步优化.Ph.\u00a0D.Dissertation“,”author“:”Leblond R\u00e9mi“,”key“:”e_1_3_2_1_30_1“,“unstructured”:“R\u0e9mi-Leblond.2018。机器学习的异步优化。博士\u00a0D。论文。PSL研究型大学。雷布隆德(Leblond)。2018.机器学习的异步优化。博士\u00a0D。论文。PSL研究型大学。“},{”key“:”e_1_3_2_1_31_1“,”doi-asserted-by“:”publisher“,”doi“:”10.1109“/5.726791”},“key”:“e_1_ 3_2_1_1_32_1”,“doi-assert-by”:“publisher”,“doi”:“10.1109 \/TIT.2017.2736066”}、{”key“:“e_ 3_2_33_1”,”首页“:”19“,”article-title“:”“使用参数服务器进行高效通信的分布式机器学习”,“volume”:“27”,“作者”:“李牧”,“年”:“2014年”,“非结构化”:“穆力,大卫·G·安徒生,亚历山大·J·斯莫拉,凯·余。2014 . 使用参数服务器进行高效通信的分布式机器学习。神经信息处理系统进展27(2014),19\u2013 27。Mu Li、David Andersen、Alexander Smola和Kai Yu。2014.使用参数服务器进行高效通信的分布式机器学习。《神经信息处理系统的进展》27(2014),19\u201327.“,“期刊标题”:“神经信息处理体系的进展”},{“关键”:“e_1_3_2_1_34_1”,“非结构化”:“Shuo Liu.2021。分布式优化和机器学习中的容错研究综述。arXiv预打印arXiv:2106.08545(2021)。刘硕。2021.分布式优化和机器学习中容错性的调查。arXiv预打印arXiv:2106.08545(2021)。“},{”key“:”e_1_3_2_1_35_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145 \/3465084.3467902”},“key”:“e_1_a_2_1_36_1”,“unstructured”:“Shuo Liu Nirupam Gupta and Nitin\u00a0H.Vaidya.2022。冗余对分布式优化和学习中弹性的影响。arXiv预打印arXiv:2211.08622(2022)。Shuo Liu Nirupam Gupta和Nitin\u00a0H。瓦迪亚。2022.冗余对分布式优化和学习中弹性的影响。arXiv预打印arXiv:2211.08622(2022)。“},{”key“:”e_1_3_2_1_37_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/TAC.2008.2009515”},“key”:“e_1_a_2_1_38_1”,“unstructured”:“Feng Niu Benjamin Recht Christopher R\u00e9和Stephen\u00a0J Wright.2011。霍格沃德!:一种并行化随机梯度下降的无锁方法。arXiv预印本arXiv:1106.5730(2011)。Feng Niu Benjamin Recht Christopher R\u00e9和Stephen Wright。2011.霍格沃德!:一种并行化随机梯度下降的无锁方法。arXiv预印本arXiv:1106.5730(2011)。“},{”key“:”e_1_3_2_1_39_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/TNNLS.2020.2979670”},“volume-title”:“Pytork:一种命令式、高性能的深度学习库。arXiv预印本arXiv:1912.01703(2019)。”,“年份”:“2019”,“作者”:“Paszke Adam”,“key”:“e_3_2_40_1”,“非结构化”:”Adam Paszke、Sam Gross、Francisco Massa、Adam Lerer、James Bradbury、Gregory Chanan、Trevor Killeen、Zeming Lin、Natalia Gimelshein、Luca Antiga,2019年。Pytorch:一个命令式、高性能的深度学习库。arXiv预印本arXiv:1912.01703(2019)。Adam Paszke、Sam Gross、Francisco Massa、Adam Lerer、James Bradbury、Gregory Chanan、Trevor Killeen、Zeming Lin、Natalia Gimelshein、Luca Antiga,2019年。Pytorch:一个命令式、高性能的深度学习库。arXiv预印本arXiv:1912.01703(2019)。“},{”key“:”e_1_3_2_1_41_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145\/984622.984626”},“key”:“e_1_a_2_1_42_1”,“doi-assert-by”:“publisher”,”doi“:”10.1109\/CDC.2004.1428778“}”,{。有限训练集的指数收敛率随机梯度法。arXiv预印arXiv:1202.6258(2012)。尼古拉斯·勒·鲁克斯-马克·施密特和弗朗西斯·巴赫。2012.有限训练集指数收敛率的随机梯度法。arXiv预印arXiv:1202.6258(2012)。“},{”volume-title“:”冗余请求何时减少延迟?IEEE Transactions on Communications 64,2“,”year“:”2015“,”author“:”Shah B“,”key“:”e_1_3_2_1_44_1“,”unstructured“:”Nihar\u00a0 B Shah,Kangwook Lee,and Kannan Ramchandran。2015。冗余请求何时减少延迟?IEEE通信汇刊64,2(2015),715\u2013722。Nihar\u00a0B Shah、Kangwook Lee和Kannan Ramchandran。2015.冗余请求何时减少延迟?IEEE Transactions on Communications 64,2(2015),715\u2013722.“},{”key“:”e_1_3_2_1_45_1“,”unstructured“:”Shai Shalev-Shwartz and Tong Zhang.2013。加速微支撑随机双坐标上升。arXiv预印arXiv:1305.2581(2013)。Shai Shalev-Shwartz和Tong Zhang。2013年,加快了小背带随机双坐标上升。arXiv预印arXiv:1305.2581(2013)。“},{“key”:“e_1_3_2_1_46_1”,“doi由”:“publisher”断言,“doi”:“10.1137\/140996668X”},{“key”:“e_1_3_2_1_47_1”,“doi由”:“crossref”断言,“非结构化”:“S.Sra S.Nowozin and S.J.Wright。2012。机器学习优化。麻省理工学院出版社。S.Sra S.Nowozin和S.J.Wright。2012.机器学习优化。麻省理工学院出版社。“,”DOI“:”10.7551\/mitpress\/8996.0001“},{”key“:”e_1_3_2_1_48_1“,”unstructured“:”Lili Su和Nitin Vaidya.2015。拜占庭多代理优化:第一部分arXiv预印本arXiv:1506.04681(2015)。莉莉·苏和尼汀·维迪娅。2015.拜占庭多代理优化:第一部分arXiv预印本arXiv:1506.04681(2015)。“},{”key“:”e_1_3_2_1_49_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1145 \/2933057.2933105”},“volume-title”:“机器学习国际会议。PMLR,3368 \u20133376”,“年份”:“2017”,“作者”:“Tandon Rashish”,“key”:“e_3_21_50_1”,“非结构化”:“拉希什·坦登(Rashish Tandon)、齐磊(Qi Lei)、亚历山大·迪马基斯(Alexandros \u00a0 G Dimakis)和尼科斯·卡拉姆帕齐亚基斯(Nikos Karampatziakis)。2017 . 梯度编码:避免分布式学习中的掉队者。在机器学习国际会议上。PMLR,3368\u20133376。拉希什·坦登(Rashish Tandon)、齐磊(Qi Lei)、亚历山大·迪马基斯(Alexandros\u00a0G Dimakis)和尼科斯·卡拉姆帕齐亚基斯(Nikos Karampatziakis)。2017.梯度编码:避免分布式学习中的掉队者。在机器学习国际会议上。PMLR,3368\u20133376.“},{”key“:”e_1_3_2_1_51_1“,”doi-asserted-by“:”publisher“,“doi”:“10.1109\/TAC.2015.2449811”},“key”:“e_1_m2_1_52_1”,“doi-assert-by”:“publisher”,”doi“:”10.1145\/284220.2847223“}”,{2017年拉夫。Fashion-mnist:用于基准机器学习算法的新型图像数据集。arXiv预印arXiv:1708.07747(2017)。韩晓·卡希夫·拉苏尔和罗兰·沃尔格拉夫。2017.Fashion-mnist:一个用于基准机器学习算法的新型图像数据集。arXiv预印arXiv:1708.07747(2017)。“},{“volume-title”:“芝诺:拜占庭可疑随机梯度下降。arXiv预印本arXiv:1805.10032 24”,“年份”:“2018”,“作者”:“谢聪”,“密钥”:“e_1_3_2_1_54_1”,《非结构化》:“丛谢,奥卢瓦桑米·科耶霍,英德拉尼尔·古普塔。2018。芝诺:Byzantine可疑随机梯度降落。arXiv预印本arXiv:1802.10032 24(2018)Cong Xie、Oluwasanmi Koyejo和Indranil Gupta。2018.芝诺:拜占庭可疑的随机梯度下降。arXiv预印arXiv:1805.10032 24(2018)。“},{”key“:”e_1_3_2_1_55_1“,”doi-asserted-by“:”publisher“,“doi”:“10.5555\/2946645.3007059”},“key”:“e_1_3_2_1_56_1”,“doi-assert-by”:“publisher”,”doi“:”10.5555\/3294771.3294839“}”,{“volume-title”:“机器学习国际会议。PMLR,5650\u20135659”,“年份”:“2018”,“作者”:“尹东”,“key”:“e_1_3_2_1_57_1”,“非结构化”:“董寅、陈玉东、兰昌德兰·坎南和彼得·巴特利特。2018 . 拜占庭式分布式学习:走向最佳统计率。在机器学习国际会议上。PMLR,5650\u20135659。董寅、陈玉东、兰昌德兰·坎南和彼得·巴特利特。2018.拜占庭式鲁棒分布式学习:实现最佳统计率。在机器学习国际会议上。PMLR,5650\u20135659.“}],”event“:{”name“:”ICDCN 2023:第24届分布式计算和网络国际会议“,”缩写词“:”CCN 2023“,”location“:”Kharagpur India“},”container-title“:[”24届分布式计算机和网络国际大会论文集“],”原文标题“:[],”链接“:[{”URL“:”https:\/\/dl.acm.org\/doi\/abs\/10.1145\/3571306.3571393“,”content-type“:”text\/html“,”content-version“:”vor“,”intended-application“:”syndication“},{”URL“:”https:\//dl.acm.org\/doi\/pdf\/10.1145 \/3571206.35711393“,在“},{”URL“:”https:\/\/dl.acm.org\/doi\/pdf\/10.1145\/3571306.3571393“,”content-type“:”unspecified“,”content-version“:”vor“,”intended-application“:”similarity-checking“}],”deposed“:{”date-parts“:[[2024,1,4],”date-time“:“2024-01-04T06:13:59Z”,”timestamp“:1704348839000},”score“:1,”resource“:”{“primary”:{“URL”:“https:\/\/dl.acm.org\/doi\/10.1145\/3571306.3571393“}},”副标题“:[],”短标题“:[],”已发布“:{”日期部分“:[[2023,1,4]]},“引用计数”:57,“alternative-id”:[“10.1145\/3571336.35711393”,“10.1145\/3571306”],“URL”:“http://\/dx.doi.org\/10.1145 \/35771306.351393”“relation”:{},“subject”:[],“published”:{“date-parts”:[[2023,1,4]]},”assertion“:[{”value“:”2023-01-04“,”order“:2,”name“:”published“,”label“:”published“,”group“:{”name“:”publication_history“,”标签“:”publication history“}}]}}