安全高效的联合学习框架自然语言处理

王成红,邓杰仁,孟贤瑞,王一觉,季丽,盛林(Sheng Lin),朔汉,费苗,桑古瑟瓦·拉贾塞卡兰,蔡文鼎


摘要
在这项工作中,我们考虑了为NLP设计安全高效的联邦学习(FL)框架的问题。本文献中的现有解决方案要么考虑可信聚合器,要么需要重量级密码原语,这使得性能显著下降。此外,许多现有的安全FL设计只能在限制性假设下工作,即没有一个客户端可以从训练协议中退出。为了解决这些问题,我们提出了SEFL,一种安全高效的联合学习框架,它(1)消除了对可信实体的需要;(2) 与现有FL设计相比,实现了相似甚至更好的模型精度;(3) 对客户辍学有弹性。
选集ID:
2021.emnlp-main.606年
体积:
2021年自然语言处理实证方法会议记录
月份:
十一月
年份:
2021
地址:
多米尼加共和国Online和Punta Cana
编辑:
玛丽·弗朗辛·莫恩斯,黄宣景,露西娅·斯佩西亚,Scott Wen tau Yih(斯科特·温陶一)
地点:
EMNLP公司
SIG公司:
出版商:
计算语言学协会
注:
页:
7676–7682
语言:
网址:
https://aclantology.org/2021.emnlp-main.606
内政部:
10.18653/v1/2021.emnlp-main.606
比比键:
引用(ACL):
王成红、邓杰仁、孟显瑞、王一觉、李吉、林盛、韩朔、苗飞、拉贾塞卡兰、丁彩文。2021一种安全高效的NLP联合学习框架.英寸2021年自然语言处理实证方法会议记录,第7676-7682页,在线和多米尼加共和国卡纳角。计算语言学协会。
引用(非正式):
一种安全高效的NLP联合学习框架(Wang等人,EMNLP 2021)
复制引文:
PDF格式:
https://aclantology.org/2021.emnlp-main.606.pdf
视频:
 https://aclantology.org/2021.emnlp-main.606.mp4网址