{“状态”:“确定”,“消息类型”:“工作”,“信息版本”:“1.0.0”,“邮件”:{“索引”:{“日期-部分”:[[2024,8,7]],“日期-时间”:“2024-08-07T23:37:40Z”,“时间戳”:1723073860076},“出版商位置”:“美国纽约州纽约市”,“参考-计数”:43,“出版者”:“ACM”,“资助者”:[{“名称”:“生态云”},{“姓名”:“瑞士国家科学基金会”“,”奖项“用法:[“200021_182542”]}],“内容域”:{“域”:[“dl.acm.org”],“crossmark-restriction”:true},“short-container-title”:[],“published-print”:{-“date-parts”:[[2021,7,21]]},”DOI“:”10.1145\/3465084.3467919“,”type“:”proceedings-article“,”created“:{”date-part“:[2021,7,23]],“date-time”:“202”1-07-23T21:09:28Z“,”时间戳“:1627074568000},”更新策略“:“http:\/\/dx.doi.org/10.1145\/crosmark policy”,“source”:“Crossref”,“由计数引用”:13,“title”:[“SGD中的差异隐私和拜占庭弹性”],“prefix”:“10.1145”,“author”:[{”given“:”Rachid“,”family“:”Guerraoui“,”sequence“:”first“,”affiliation“:[{”name“:”Ecole Polytechnique F\u00e9d\u00e9rale de Lausanne(EPFL),瑞士洛桑“}]},{“given”:“Nirupam”,“family”:“Gupta”,“sequence”:“additional”,“affiliation”:[{“name”:“Ecole Polytechnology F\u00e9d\u00e9洛桑大学(EPFL),瑞士洛桑纳“}]{”,{”given“:”Rafa\u00ebl“,”family“:”Pinot“,”sequence“:”additional u00e9rale de Lausanne(EPFL),瑞士洛桑“}]},{“given”:“S\u00e9bastien”,“family”:“Rouault”,“sequence”:“additional”,“affiliation”:[{“name”:“Ecole Polytechnology F\u00e 9d\u00e 9洛桑大学(EPFL),瑞士洛桑纳“}]{”given“giving”:“John”,”family“:”Stephan“sequencence”:”additional“,”affiliance“[{”名称:“Ecoly Polytechan F\u00 e9d\u”00e9洛桑(EPFL),瑞士洛桑“}]}],“成员”:“320”,“在线发布”:{“日期部分”:[[2021,7,23]]},“参考”:[{“密钥”:“e_1_3_2_2_1_1”,“doi-asserted-by”:“发布者”,“doi”:“10.1145\/2976749.2978318”},{“键”:“e_1_3_2_2_1”、“卷时间”:“神经信息处理系统进展32:2019年神经信息处理体系年会”,“作者”:“巴鲁克·莫兰”,“年份”:“2019年”,“非结构化”:“莫兰·巴鲁克、吉拉德·巴鲁克和约夫·戈德伯格。2019 . 一点点就够了:避开分布式学习的防御。《神经信息处理系统的进展》第32期:2019年,2019年12月8日至14日,美国加利福尼亚州长滩,莫兰·巴鲁克、吉拉德·巴鲁克和约夫·戈德堡,2019。一点点就够了:避开分布式学习的防御。《神经信息处理系统进展》第32期:2019年12月8日至14日,美国加利福尼亚州长滩,2019年神经信息处理年度会议。“},{“key”:“e_1_3_2_3_1”,“doi-asserted-by”:“crossref”,《unstructured》:“Raef Bassily Adam Smith and Abhradep Thakurta.2014。差异私人经验风险最小化:有效算法和严格误差界。arxiv:1405.7085[cs.LG]拉夫·巴西利·亚当·史密斯和阿卜拉迪普·塔库塔。2014.差异私人经验风险最小化:高效算法和严格误差界限。arxiv:1405.7085[cs.LG]“,”DOI“:”10.1109\/FOCS.2014.56“},{”key“:”e_1_3_2_4_1“,”first page“:“I”,“article-title”:“带对手的机器学习:拜占庭容忍梯度下降”,“volume”:“30”,“author”:“Blanchard Peva”,“year”:“2017”,“unstructured”:“佩瓦·布兰查德(Peva Blanchard)、马赫迪·穆罕默德(El Mahdi El Mhamdi)、拉希德·盖拉乌伊(Rachid Guerraoui)和朱利安·斯塔纳(Julien Stainer)。2017 . 与对手的机器学习:拜占庭容忍梯度下降。神经信息处理系统进展30,I。Guyon、U.V.Luxburg、S.Bengio、H.Wallach、R.Fergus、S.Vishwanathan和R.Garnett(编辑)。Curran Associates,Inc.,第119-129页。http:\/\/papers.nips.cc\/paper\/6617-machine-learning-with-adversaries-byzantine-tolent-gradient-descent.pdf佩瓦·布兰查德、马赫迪·穆罕默德、拉希德·格雷罗和朱利安·斯塔纳。2017.与对手的机器学习:拜占庭容忍梯度下降。《神经信息处理系统进展》30,I.Guyon、U.V.Luxburg、S.Bengio、H.Wallach、R.Fergus、S.Vishwanathan和R.Garnett(编辑)。Curran Associates,Inc.,第119-129页。http:\/\/papers.nips.cc\/paper\/6617-machine-learning-with-adversaries-byzantine-tolent-gradient-descent.pdf,“journal-title”:“神经信息处理系统的进展”},{“key”:“e_1_3_2_2_5_1”,“volume-title“:“在线学习和随机近似”,“author”:“Bottou L\u00e9on”,“unstructured”:“L\u000e9on Bottou.1999。在线学习和随机近似。剑桥大学出版社,9-42。https:\/\/doi.org\/10.1017\/CBO9780511569920.003 L\u00e9关于Bottou。1999年,在线学习和随机逼近。剑桥大学出版社,9-42。https:\/\/doi.org\/10.1017\/CBO9780511569920.003“},{“key”:“e_1_3_2_6_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1007\/978-3-7908-2604-3_16“}”,{”key“:”e_1_ 3_2_2_7_1“,”doi-assert-by“:”publisher“,me-title“:”第35届国际机器学习会议论文集,ICML 2018,Stockholmsm \“a ssan”,“author”:“Chen Lingjiao”,“year”:“2018”,“unstructured”:“Lingjiaa Chen,Hongyi Wang,Zachary B.Charles,and Dimitris S.Papailiopoulos.2018。DRACO:通过冗余梯度进行拜占庭恢复分布式训练。《第35届国际机器学习会议论文集》,ICML 2018,Stockholmsm“a ssan,瑞典斯德哥尔摩,2018年7月10-15日(机器学习研究论文集,第80卷),Jennifer G.Dy和Andreas Krause(编辑),PMLR,902-911。http:\/\/crocesses.mlr.press\/v80\/chen18l.html陈凌娇、王宏毅、扎卡里·B·查尔斯和迪米特里斯·帕帕利奥普洛斯。2018.DRACO:拜占庭式弹性分布式培训,通过冗余梯度进行。《第35届国际机器学习会议论文集》,ICML 2018,Stockholmsm“a ssan,瑞典斯德哥尔摩,2018年7月10-15日(机器学习研究论文集,第80卷),Jennifer G.Dy和Andreas Krause(编辑),PMLR,902-911。http:\/\/processes.mlr.press\/v80\/chen18l.html“},{“key”:“e_1_3_2_2_9_1”,“volume-title”:“隐私保护和安全设计。2018 IEEE国际大数据会议(大数据).1178-1187”,“author”:“Chen X.”,“unstructured”:“X.Chen,J.Ji,C.Luo,W.Lia,and P.Li.2018。当机器学习遇到区块链时:一种分散、隐私保护和安全的设计。2018年IEEE国际大数据会议(Big Data)。1178--1187 . X.Chen、J.Ji、C.Luo、W.Liao和P.Li.2018年。当机器学习遇到区块链时:一种分散、隐私保护和安全的设计。2018年IEEE国际大数据会议(Big Data)。1178--1187.“},{“key”:“e_1_3_2_2_10_1”,“volume-title”:“Differentially Private随机坐标Descent.arxiv”,“author”:“Damaskinos Georgios”,“year”:“2006”,“unstructured”:“Georgios-Damaskino,Celestine Mendler-D\u00fcnner,Rachid Guerraoui,Nikolaos Papandreou,and Thomas Parnell。2020。差分私有随机坐标下降。arxiv:2006.07272[cs.LG]乔治奥斯·达马斯基诺斯、塞莱斯汀·门德勒-D\u00fcnner、拉希德·格拉维、尼古拉斯·帕潘德里欧和托马斯·帕内尔。2020年,差异私有随机坐标下降。arxiv:2006.07272[cs.LG]“},{“key”:“e_1_3_2_2_11_1”,“doi-asserted-by”:“crossref”,“unstructured”:“J.Deng W.Dong R.Socher L.-J.Li K.Li和L.Fei-Fei.2009。ImageNet:一个大规模的层次化图像数据库。在CVPR09中。J.Deng W.Dong R.Socher L.-J.Li K.Li和L.Fei-Fei。2009年,ImageNet:一个大尺度层次图像数据库。在CVPR09中。“,”DOI“:”10.1109\/CVPR.2009.5206848“},{”key“:”e_1_3_2_2_12_1“,”volume-title“:”Automata,Languages and Programming“,”author“:”Dwork Cynthia“,”unstructured“:”Cynthia-Dwork.2006。差异隐私。在《自动化、语言和编程》一书中,米歇尔·巴格列西、巴特·普雷尼尔、弗拉迪米罗·萨松和英戈·韦格纳(编辑)。施普林格-柏林-海德堡,柏林,海德堡1-12。辛西娅·德沃克,2006年。差异隐私。在《自动化、语言和编程》一书中,米歇尔·巴格列西、巴特·普雷内尔、弗拉迪米罗·萨松和英戈·韦格纳(编辑)。Springer Berlin Heidelberg,Berlin,Heidelbrg,1--12.“},{“key”:“e_1_3_2_2_13_1”,“首页”:“3”,“文章标题”:“差异隐私的算法基础”,“卷”:“9”,“作者”:“德沃克·辛西娅”,“年份”:“2014”,“非结构化”:“辛西娅·德沃克(Cynthia Dwork),亚伦·罗斯(Aaron Roth),2014年。差异隐私的算法基础。《理论计算机科学基础与趋势》,第9卷,3-4(2014),211-407。辛西娅·德沃克、亚伦·罗斯等人。2014.差异隐私的算法基础。《理论计算机科学的基础与趋势》,第9卷,3-4(2014),211-407.,“期刊标题”:“理论计算机科学的基础与趋势”,{“关键”:“e_1_3_2_14_1”,“卷标题”:“L\u00ea Nguy\u00ean Hoang,and S\u00e9bastien Rouault”,“作者”:“El Mhamdi El Mahdi”,“年份”:“2020”,“非结构化”:“El-Mahdi El-Mhamdi、Rachid Guerraoui、Arsany Guirguis、L\u00ea Nguy\u00een Hoang和S\u00e9bastien Rouault。2020 . 真正分布式拜占庭机器学习。arxiv:1905.03853[cs.DC]埃尔·马赫迪·埃尔·穆罕默德(El-Mahdi El-Mhamdi)、拉希德·盖拉乌伊(Rachid Guerraoui)、阿尔萨尼·吉古斯(Arsany Guirguis)、吕·00ea Nguy\u00ean Hoang和S·u00e9bastien Rouault。2020年,真正分布式拜占庭机器学习。arxiv:1905.03853[cs.DC]“},{“key”:“e_1_3_2_15_1”,“volume-title”:“拜占庭随机梯度下降的分布动量。在第九届国际学习表征会议上,ICLR 2021”,“author”:“El-Mhamdi El-Mahdi”,”年份“:”2021“,”非结构化“:”El-Mahdi El-Mhamdi、Rachid Guerraoui和S\u00e9bastien Rouault。2021 . 拜占庭弹性随机梯度下降的分布式动量。2021年5月4日至8日,在奥地利维也纳举行的第九届国际学习代表大会上。OpenReview.net。https:\/\/openreview.net\/forum?id=H8UHdhWG6A3 El Mahdi El Mhamdi、Rachid Guerraoui和S\u00e9bastien Rouault。2021.拜占庭随机梯度下降的分布动量。2021年5月4日至8日,在奥地利维也纳举行的第九届国际学习代表大会上。OpenReview.net。https:\/\/openreview.net\/forum?id=H8UHdhWG6A3“},{“key”:“e_1_3_2_2_16_1”,“volume-title”:“Sai Praneeth Karimireddy,and Martin Jaggi”,“author”:“He Lie”,“year”:“2020”,“unstructured”:“Lie He,Sai Praneeth Karimireddy,and Matin Jagi.200.Secure Byzantine-Robust Machine Learning。arxiv:2006.04747[cs.LG]Lie He.,Sai Purneeth Karrimreddy,and.Martin Jacgi.2020。安全的拜占庭-鲁布斯特机器学习。arxiv:2006.04747[cs.LG]“},{“key”:“e_1_3_2_2_17_1”,“volume title”:“Private,Federated Gradient Descent.arxiv”,“author”:“Jayaram K.R.”,“year”:“2012”,“nonstructured”:“K.R.Jayaram,Archit Verma,Ashish Verma,Gegi Thomas,and Colin Sutcher Shepard.2020。MYSTIKO::云中介、私有、联合梯度下降。arxiv:2012.00740[cs.CR]K.R.Jayaram、Archit Verma、Ashish Verma、Gegi Thomas和Colin Sutcher-Shepard。2020年,MYSTIKO::云中介、私有、联邦梯度下降。arxiv:2012.00740[cs.CR]“},{“key”:“e_1_3_2_2_18_1”,“volume-title”:“联合学习:提高沟通效率的策略。在NIPS私人多方机器学习研讨会上。https:\/\/arxiv.org\/abs\/1610”,“author”:“Jakub”,“year”:“2016”,“unstructured”:“Jacub Kone?n\u00fd,H.Brendan McMahan,Felix X。Yu、Peter Richtarik、Ananda Theertha Suresh和Dave Bacon。2016 . 联合学习:提高沟通效率的策略。在NIPS私人多方机器学习研讨会上。https:\/\/arxiv.org\/abs\/1610.05492 Jakub Kone?n \u00fd、H.Brendan McMahan、Felix X.Yu、Peter Richtarik、Ananda Theertha Suresh和Dave Bacon。2016年,联合学习:提高沟通效率的策略。在NIPS私人多方机器学习研讨会上。https:\/\/arxiv.org\/abs\/1610.05492“},{“key”:“e_1_3_2_2_19_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1007\/s11263-020-01316-z“}”,{”key“:”e_1_ 3_2_2_20_1“,”doi-assert-by“:”publisher“,,“doi”:“10.5555\/2685048.2685095”},{“key”:“e_1_3_2_22_1”,“volume-title”:“拜占庭分布式学习的潜在漏洞。arxiv”,“author”:“El Mhamdi El Mahdi”,“year”:“1802”,“unstructured”:“埃尔Mahdi El Mhamdi,Rachid Guerraoui,and S\u00e9bastien Rouault。2018年,拜占庭分布式学习的潜在漏洞。阿西夫:1802.07927[stat.ML]马赫迪·埃尔·姆哈迪、拉希德·盖拉乌伊和斯努00e9bastien Rouault。2018年,拜占庭分布式学习的潜在漏洞。arxiv:1802.07927[stat.ML]“},{“key”:“e_1_3_2_23_1”,“volume-title”:“联合学习中的健壮性和隐私:地方和中央差异隐私的实验。arxiv”,“author”:“Naseri M.”,《年份》:“2020年”,“非结构化”:“M.Naseri,J.Hayes,and Emiliano De Cristofaro。2020年。联合学习中的健壮性和隐私:地方和中央差异隐私的实验。ArXiv,卷abs \/2009.03561(2020)。M.Naseri、J.Hayes和Emiliano De Cristofaro。2020年:在联合学习中实现稳健和隐私:地方和中央差异隐私的实验。ArXiv,第abs卷\/2009.03561(2020)。},{“key”:“e_1_3_2_24_1”,“非结构化”:“尼古拉斯·帕尔诺特·马特\u00edn Abadi \u00dalfar Erlingsson Ian Goodfellow and Kunal Talwar.2017。从私人培训数据进行深度学习的半监督知识转移。阿西夫:1610.05755[stat.ML]尼古拉斯·帕尔诺特·马特\u00edn阿巴迪\u00dalfar Erlingsson伊恩·古德费罗(Ian Goodfellow)和库纳尔·塔瓦尔(Kunal Talwar)。2017.从私人培训数据进行深度学习的半监督知识转移。arxiv:1610.05755[stat.ML]“},{”key“:”e_1_3_2_25_1“,”发布者断言的doi“,”doi“:”10.1016\/j.jpdc.2008.09.002“},{”key“:”e_1_3_2_26_1“,”系列标题“:”SIAM控制与优化期刊“,”卷标题“:”平均随机逼近加速“,”作者“:”Polyak Boris“,”年份“:”1992“,”非结构化“:”鲍里斯·波利亚克(Boris Polyak)和安纳托利·朱迪茨基(Anatoli Juditsky)。1992年,通过平均加速随机近似。SIAM控制与优化杂志,第30卷(1992年7月),838-855。https:\/\/doi.org/10.1137\/033046鲍里斯·波利亚克和阿纳托利·朱迪茨基。1992年,通过平均加速随机近似。SIAM控制与优化杂志,第30卷(1992年7月),838-855。https:\/\/doi.org\/10.1137\/0330046“},{”key“:”e_1_3_2_27_1“,”volume-title“:”统计突破“,”author“:”Rao C Radhakrishna“,”unstructured“:”C Radhackrishna Rao.1992。统计参数估计中可获得的信息和准确性。在统计学的突破中。施普林格,235-247。C Radhakrishna Rao。1992.统计参数估计中可获得的信息和准确性。在统计突破中。Springer,235--247.“},{”key“:”e_1_3_2_2_28_1“,”volume-title“:”ML-Leaks:“模型和数据无关的成员资格推理攻击和机器学习模型防御。arxiv“,”author“:”Salem Ahmed“,”year“:”1806“,”unstructured“:”Ahmed Salem,Yang Zhang,Mathias Humbert,Pascal Berrang,Mario Fritz,and Michael Backes.2018。ML-Leaks:机器学习模型上的模型和数据无关成员资格推理攻击和防御。arxiv:1806.01246[cs.CR]艾哈迈德·塞勒姆、杨章、马蒂亚斯·亨伯特、帕斯卡尔·贝朗、马里奥·弗里茨和迈克尔·巴克斯。2018年,ML-Leaks:机器学习模型上的模型和数据独立成员推断攻击和防御。arxiv:1806.01246[cs.CR]“},{“key”:“e_1_3_2_29_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1109\/ALLERTON.2015.7447103“}”,{”key“:”e_1_ 3_2_30_1“,”volume-title“:”针对机器学习模型的成员身份推断攻击。CoRR“,“author”:“Shokri Reza”、“year”:“2016”、“unstructured”:“Reza Shokri、Marco Stronati和Vitaly Shmati 2016年6月。针对机器学习模型的成员推断攻击。CoRR,第1610.05820卷(2016年)。arxiv:1610.05820 http:\/\/arxiv.org\/abs\/1610.05820-Reza Shokri、Marco Stronati和Vitaly Shmatikov。2016.针对机器学习模型的成员推断攻击。CoRR,第1610.05820卷(2016年)。arxiv:16100.05820 http://\/arxiv.org\/abs\/1610.05820“},{“key”:“e_1_3_2_31_1”,“doi-asserted-by”:“publisher”,“doi”:“10.1109”\/ICDAR.2003.1227801“}”,{”key“:”e_1_ 3_2_32_1“,”volume-title“:”Byzantine-Resilient Secure Federated Learning.arxiv“,”author“:”So Jinhyun“,”year“2007”,“unstructured”:“Jinhyu”Yun So、Basak Guler和A。Salman Avestimehr公司。2020年,拜占庭弹性安全联合学习。arxiv:2007.11115[cs.CR]Jinhyun So、Basak Guler和A.Salman Avestimehr。2020年,拜占庭弹性安全联合学习。arxiv:2007.1115[cs.CR]“},{“key”:“e_1_3_2_2_33_1”,“doi-asserted-by”:“publisher”,”doi“:”10.1109\/GlobalSIP.2013.6736861“}”,{”key“:”e_1_ 3_2_34_1“,”volume-title“:”电子学“,”卷“:”8“,”作者“:”唐凤仪“,”年份“:”2019“,”非结构化“:”唐凤仪(Fengyi Tang)、吴伟(Wei Wu)、刘健(Jian Liu)和明贤(Ming Xian)。2019 . 通过同态重新加密保护隐私的分布式深度学习。电子,第8卷(2019年4月),411。https:\/\/doi.org\/10.3390\/electronics8040411汤凤仪、吴伟、刘健和Ming Xian。2019.通过同态重加密保护隐私的分布式深度学习。电子,第8卷(2019年4月),411。https:\/\/doi.org\/10.3390\/electronics8040411“},{“key”:“e_1_3_2_35_1”,“volume-title”:“Generalized Byzantine容错SGD.arxiv”,“author”:“Xie Cong”,“year”:“1802”,“unstructured”:“Cong Xie,Oluwasanmi Koyejo,and Indranil Gupta.2018a.GeneralizedByzantien容错SGD.arxiv:1802.10116[cs.DC]Cong Xie、Oluwasanmi Koyejo和Indranil Gupta。2018年a。广义拜占庭容忍SGD。arxiv:1802.10116[cs.DC]“},{“key”:“e_1_3_2_2_36_1”,“volume-title”:“Phocas:维数拜占庭重定随机梯度下降。arxiv”,“author”:“Xie Cong”,“year”:“1805”,“unstructured”:“Cong Xie,Oluwasanmi Koyejo,and Indranil Gupta.2018b.Phocas:维拜占庭轻定随机梯度降落。arxiv:1805.09682[cs.DC]Cong Xie、Oluwasanmi Koyejo和Indranil Gupta。2018年b月。福卡斯:维拜占庭恢复随机梯度下降。arxiv:1805.09682[cs.DC]“},{“key”:“e_1_3_2_37_1”,“volume-title”:“第三十五届人工智能不确定性会议论文集,2019年UAI”,“author”:“Xie Cong”,“year”:“2019”,“unstructured”:“Cong Xie,Oluwasanmi Koyejo,and Indranil Gupta.2019 a。帝国的衰落:通过内部产品操纵打破拜占庭容忍的SGD。2019年7月22日至25日,以色列特拉维夫,第三十五届人工智能不确定性会议论文集,UAI 2019。83.Cong Xie、Oluwasanmi Koyejo和Indranil Gupta。2019年。帝国的衰落:通过内部产品操纵打破拜占庭容忍的SGD。在2019年7月22日至25日于以色列特拉维夫举行的第三十五届人工智能不确定性会议记录中,UAI 2019。83.“},{”key“:”e_1_3_2_2_38_1“,”volume-title“:”第36届国际机器学习会议论文集,ICML 2019,9-15“,”卷“:”6901“,”author“:”谢聪“,“年”:“2019”,”unstructured“:”Cong Xie,Sanmi Koyejo,and Indranil Gupta.2019 b。Zeno:基于怀疑的容错分布式随机梯度下降。第36届国际机器学习会议论文集,2019年6月9日至15日,美国加利福尼亚州长滩,ICML 2019(机器学习研究论文集,第97卷),Kamalika Chaudhuri和Ruslan Salakhutdinov(编辑)。PMLR,6893--6901。http:\/\/crocesses.mlr.press\/v97\/xie19b.html丛谢、桑米·科耶霍和英德雷尼尔·古普塔。2019 b.Zeno:基于怀疑的容错分布式随机梯度下降。第36届国际机器学习会议论文集,2019年6月9日至15日,美国加利福尼亚州长滩,ICML 2019(机器学习研究论文集,第97卷),Kamalika Chaudhuri和Ruslan Salakhutdinov(编辑)。PMLR,6893--6901。http:\/\/processes.mlr.press\/v97\/xie19b.html“},{“key”:“e_1_3_2_2_39_1”,“volume-title”:“拜占庭-罗布斯特分布式学习:迈向最佳统计率。arxiv”,“author”:“尹东”,“year”:“1803”,“unstructured”:“Dong Yin,Yudong Chen,Kannan Ramchandran,and Peter Bartlett。2018。拜占庭-鲁布斯特分布式学习:走向最佳统计率。arxiv:1803.01498[cs.LG]董寅,陈玉东,坎南·拉姆昌德兰和彼得·巴特利特。2018年,拜占庭-鲁布斯特分布式学习:走向最佳统计率。arxiv:1803.01498[cs.LG]“},{“key”:“e_1_3_2_2_40_1”,“volume-title”:“Wide Residual Networks.CoRR”,”author“:”Zagoruyko Sergey“,”year“:”2016“,”unstructured“:”Sergey Zagoryko和Nikos Komodakis。2016。广泛的剩余网络。CoRR,卷abs \/1605.07146(2016)。arxiv:1605.07146 http:\/\/arxiv.org\/abs\/1605.07146-Sergey Zagoruyko和Nikos Komodakis。2016年,广泛的剩余网络。CoRR,卷abs \/1605.07146(2016)。arxiv:1605.07146 http://\/arxiv.org\/abs\/1605.07146},{“key”:“e_1_3_2_2_41_1”,“volume-title”:“为什么梯度削波加速训练:适应性的理论证明。arxiv”,“author”:“Zhang Jingzhao”,《year》:“1905”,“unstructured”:“Jingzhuan Zhang,Tianxing He,Suvrit Sra,and Ali Jadbabaie.2020。为什么梯度剪裁可以加速训练:适应性的理论依据。arxiv:1905。11881[数学.OC]张景照,何天兴,苏夫里特·斯拉和阿里·贾德巴伊。2020年。为什么梯度削波加速训练:适应性的理论依据。arxiv:1905.11881[math.OC]“},{“key”:“e_1_3_2_2_42_1”,“volume-title”:“神经信息处理系统的进展32,H.Wallach,H.Larochelle,A.Beygelzimer,F.d Alch\u00e9-Buc”,“作者”:“朱立根”,“非结构化”:“朱立根,刘志坚,宋汉。2019。坡度的深层渗漏。《神经信息处理系统进展》32,H.Wallach、H.Larochelle、A.Beygelzimer、F.d Alch\u00e9-Buc、E.Fox和R.Garnett(编辑)。Curran Associates公司,14774--14784。http://\/papers.nips.cc\/paper\/9617-deep-leakage-from-gradients.pdf朱立根、刘志坚和韩松。2019.梯度深度泄漏。《神经信息处理系统进展》32,H.Wallach、H.Larochelle、A.Beygelzimer、F.d Alch\u00e9-Buc、E.Fox和R.Garnett(编辑)。Curran Associates公司,14774--14784。http:\/\/papers.nips.cc\/paper\/9617-deep-leakage-from-gradients.pdf“},{“key”:“e_1_3_2_2_43_1”,“volume-title”:“Shuffling放大:通过Anonymity.arxiv从本地到中央的差异隐私”,“author”:“Erlingson\u00dalfar”,“year”:“1811”,“unstructured”:“\u00dalfar Erlingsson、Vitaly Feldman、Ilya Mironov、Ananth Raghunathan、Kunal Talwar和Abhradep Thakurta。2020年,通过洗牌扩大:通过匿名从地方到中央的差异隐私。arxiv:1811.12469[cs.LG]\u00dalfar Erlingsson、Vitaly Feldman、Ilya Mironov、Ananth Raghunathan、Kunal Talwar和Abhradep Thakurta。2020年,通过洗牌扩大:通过匿名从地方到中央的差异隐私。arxiv:1811.12469[cs.LG]“}],“event”:{“name”:“PODC‘21:ACM分布式计算原理研讨会”,“location”:“Virtual event Italy”,“缩写词”:“PO‘21”,“赞助商”:[“SIGOPS ACM操作系统特别兴趣小组”,“SIGACT ACM算法和计算理论特别兴趣小组“]},“container-title”:[”2021年ACM分布式计算原理研讨会论文集“],“original-title”:[],“link”:[{“URL”:“https:\/\/dl.ACM.org\/doi\/pdf\/10.1145\/3465084.3467919”,“content-type”:“unspecified”,“content-version”:“vor”,“intended-application”:“similarity-checking”}],“deposed”:{“date-parts”:[2023,11]],“date-time”:”2023-01-11T20:43:52Z“,”timestamp“:1673469832000},”score“:1,”resource“:{”primary”:{“URL”:“https:\/\/dl.acm.org\/doi\/10.1145\/3465084.3467919”}},“subtitle”:[“Do They Add Up?”],“short title”:[],“issued”:{“date-parts”:[2021,7,21]]},《references-count》:43,“alternative-id”:[”10.1145\/346084.3467919“,”10.1145 3465084“],”URL“:”http://\/dx.doi.org\/10.1145\/3465084.3467919“,”关系“:{},“主题”:[],“已发布”:{“日期部分”:[[2021,7,21]]},“断言”:[{“值”:“2021-07-23”,“顺序”:2,“名称”:“已发布”,“标签”:“已发布”,“组”:{“名称”:“publication_history”,“标签”:“发布历史”}]]}