隐私保护攻击性语言识别的联合学习方法

@第{Zampieri2024AFL条,title={隐私保护攻击性语言识别的联合学习方法},author={马科斯·赞佩里(Marcos Zampieri)、达米思·普雷马西里(Damith Premasiri)和塔林杜·拉纳辛格(Tharindu Ranasinghe)},日志={ArXiv},年份={2024},体积={abs/2404.11470},网址={https://api.semanticscholar.org/CorpusID:269187871}}
这项工作在四个公开可用的英语基准数据集上训练了多个深度学习模型,并详细评估了它们的性能,表明所提出的模型融合方法在保护用户隐私的同时,在所有数据集中都优于基线。

本文图表

一种有效的跨SIL联合学习排序方法

本文提出了一种新的框架,称为Cross-Silo Federated Learning-to-Rank(CS-F-LTR),其中效率问题成为主要的瓶颈,并设计了一种基于草图算法和差异隐私的隐私保护的跨方术语频率查询方案。

FEDLEGAL:法律NLP的第一个现实世界联合学习基准

本文介绍了第一个真实世界的合法NLP FL基准,即FEDLEGAL,它包括五个合法NLP任务和一个基于中国法院数据的隐私任务,并表明FL在真实世界的非IID数据方面面临着新的挑战。

SOLID:用于攻击性语言识别的大规模半监督数据集

这项工作为这项任务创建了最大的可用数据集SOLID,其中包含900多万条以半监督方式标记的英语推文,并通过实验证明,将SOLID与OLID结合使用可以提高两种不同模型的OLID测试集的性能,尤其是对于较低级别的分类法。

通信—从分散数据中高效学习深度网络

本文提出了一种基于迭代模型平均的深度网络联合学习的实用方法,并考虑到五种不同的模型结构和四个数据集,进行了广泛的实证评估。

FedPerC:嵌入个人和上下文偏好的语言生成联合学习

这项工作为联合学习中的个性化研究提出了一个新方向,利用了个性化嵌入和共享上下文嵌入,并提出了一种预测这些“偏好”嵌入的方法,实现了无反向传播的个性化。

基于跨语言嵌入的多语言攻击性语言识别

本文利用现有的英语数据,通过应用跨语言上下文词嵌入和迁移学习,在资源较少的语言中进行预测,并表明该方法优于最近提交给这三种语言共享任务的最佳系统。

N-Gram语言模型的联合学习

这项工作表明,高质量的n-gram语言模型可以直接在客户端移动设备上进行训练,而不会有敏感的训练数据离开设备。

DeL-haTE:用于仇恨语音检测的深度学习可调集成

这项工作设计了一套深度学习模型,该模型结合了最先进方法的优势,并将一个调整因素纳入该框架,该框架利用转移学习对未标记数据集(如Gab)进行自动仇恨语音分类。

社交媒体中攻击性帖子的类型和目标预测

攻击性语言识别数据集(OLID)是一个新的数据集,使用细粒度的三层注释方案对攻击性内容进行注释,并将其公开。

移动边缘网络中的联合学习:综述

在大规模复杂的移动边缘网络中,涉及到具有不同约束的异构设备,这在大规模实现FL时带来了通信成本、资源分配以及隐私和安全方面的挑战。