@正在进行{wang-etal-2021-secure,title=“{NLP}的安全高效的联合学习框架”,author=“王成红和邓、杰仁和孟宪瑞和Wang、Yijue和李、吉和林、盛和韩硕苗、飞和Rajasekaran、Sangustevar和丁彩文”,editor=“Moens、Marie-Francine和黄、玄静和Specia、Lucia和Yeh,Scott Wen-tau“,booktitle=“2021年自然语言处理实证方法会议记录”,月=11月,年=“2021”,address=“多米尼加共和国Online和Punta Cana”,publisher=“计算语言学协会”,url=“https://aclantology.org/2021.emnlp-main.606”,doi=“10.18653/v1/2021.emnlp-main.606”,pages=“7676--7682”,abstract=“在这项工作中,我们考虑了设计安全高效的联合学习(FL)的问题NLP框架。本文献中的现有解决方案要么考虑可信聚合器,要么需要重量级密码原语,这使得性能显著下降。此外,许多现有的安全FL设计只能在限制性假设下工作,即没有一个客户端可以从训练协议中退出。为了解决这些问题,我们提出了SEFL,一种安全高效的联合学习框架,它(1)消除了对可信实体的需要;(2) 与现有FL设计相比,实现了相似甚至更好的模型精度;(3) 对客户辍学有弹性。",}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“wang-etal-2021-secure”><标题信息><title>一个安全高效的NLP联合学习框架</title></titleInfo><name type=“personal”>成宏<namePart type=“given”>王<namePart type=“family”><角色>作者</角色></name><name type=“personal”>杰仁邓(Deng)<角色>作者</角色></name><name type=“personal”>仙瑞<namePart type=“given”>孟<角色>作者</角色></name><name type=“personal”>易爵王<namePart type=“family”><角色>作者</角色></name><name type=“personal”><namePart type=“given”>吉</namePart>李<namePart type=“family”><角色>作者</角色></name><name type=“personal”><namePart type=“given”>盛</namePart>林<角色><roleTerm authority=“marcorrator”type=“text”>作者</roleTerm></角色></name><name type=“personal”><namePart type=“given”>硕</namePart>韩寒<角色>作者</角色></name><name type=“personal”>飞苗族<角色>作者</角色></name><name type=“personal”>桑古瑟娃拉贾塞卡兰<角色>作者</角色></name><name type=“personal”>蔡雯丁<namePart type=“family”><角色>作者</角色></name><originInfo>发布日期:2021-11发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2021年自然语言处理实证方法会议记录</title信息><name type=“personal”>玛丽·弗朗辛莫恩斯<角色>编辑器</角色></name><name type=“personal”>轩辕<namePart type=“given”>黄<namePart type=“family”><角色>编辑器</角色></name><name type=“个人”>露西娅Specia系列<角色>编辑器</角色></name><name type=“personal”>斯科特文涛<namePart type=“given”>文涛</namePart>Yih(Yih)<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>在线和多米尼加共和国卡纳角</place></originInfo>会议出版物</relatedItem>在这项工作中,我们考虑了为NLP设计安全高效的联邦学习(FL)框架的问题。本文献中的现有解决方案要么考虑可信聚合器,要么需要重量级密码原语,这使得性能显著下降。此外,许多现有的安全FL设计仅在没有客户端可以从训练协议中退出的限制性假设下工作。为了解决这些问题,我们提出了SEFL,一种安全高效的联合学习框架,它(1)消除了对可信实体的需要;(2) 与现有FL设计相比,实现了相似甚至更好的模型精度;(3) 对客户辍学有弹性</摘要><identifier type=“citekey”>wang-etal-2021安全</identifier>10.18653/v1/2021.emnlp-main.606<位置><网址>https://aclantology.org/2021.emnlp-main.606</url></位置><部分>2021-11年<扩展单元=“page”><开始>7676</开始><end>7682</范围></部分></mods></modsCollection>
%0会议记录%一个安全高效的NLP联合学习框架%王成红%阿登、杰仁%阿蒙、仙瑞%A Wang,一觉%阿丽、吉%阿林、盛%阿汉、朔%阿苗,费%A Rajasekaran,桑古瑟瓦尔%阿丁、蔡雯%玛丽·弗朗辛·Y·莫恩斯%Y Huang,宣景%露西娅·Y·斯佩西亚%Y Yih、Scott Wen-tau%2021年自然语言处理实证方法会议论文集%D 2021年%11月8日%计算语言学协会%C Online和多米尼加共和国蓬塔卡纳%F wang-etal-2021-安全%在这项工作中,我们考虑了为NLP设计安全高效的联邦学习(FL)框架的问题。本文献中的现有解决方案要么考虑可信聚合器,要么需要重量级密码原语,这使得性能显著下降。此外,许多现有的安全FL设计只能在限制性假设下工作,即没有一个客户端可以从训练协议中退出。为了解决这些问题,我们提出了SEFL,一种安全高效的联合学习框架,它(1)消除了对可信实体的需要;(2) 与现有FL设计相比,实现了相似甚至更好的模型精度;(3) 对客户辍学有弹性。%R 10.18653/v1/2021.emnlp-main.606%U型https://acl选集.org/2021.emnlp-main.606%U型https://doi.org/10.18653/v1/2021.emnlp-main.606%电话:7676-7682
降价(非正式)
[NLP安全高效的联合学习框架](https://aclantology.org/2021.emnlp-main.606)(Wang等人,EMNLP 2021)
国际计算语言学协会
- 王成红、邓杰仁、孟显瑞、王一觉、李吉、林盛、韩朔、苗飞、拉贾塞卡兰、丁彩文。2021一种安全高效的NLP联合学习框架.英寸2021年自然语言处理实证方法会议记录,第7676-7682页,在线和多米尼加共和国卡纳角。计算语言学协会。