• 语料库ID:269187871

隐私保护攻击性语言识别的联合学习方法

@进行中{Zampieri2024AFL,title={隐私保护攻击性语言识别的联合学习方法},author={马科斯·赞佩里(Marcos Zampieri)、达米思·普雷马西里(Damith Premasiri)和塔林杜·拉纳辛格(Tharindu Ranasinghe)},年份={2024},网址={https://api.semanticscholar.org/CorpusID:269187871}}
这项工作在四个公开可用的英语基准数据集上训练了多个深度学习模型,并详细评估了它们的性能,表明所提出的模型融合方法在保护用户隐私的同时,在所有数据集中都优于基线。

本文图表

询问这篇论文
AI供电

FIRE 2020 HASOC赛道概述:泰米尔语、马拉雅拉姆语、印地语、英语和德语的仇恨言论和攻击性语言识别

本文介绍了HASOC跟踪及其两个部分,即为资源较少的语言和用于比较的英语创建测试集,并介绍了任务、数据和主要结果。

仇恨语音自动检测与攻击性语言问题

这项工作使用了一个众包的仇恨言论词典来收集包含仇恨言论关键字的推文,并将这些推文的样本分为三类:包含恐怖言论的推文、仅包含攻击性语言的推文和既不包含也不包含这三类的推文。

N-Gram语言模型的联合学习

这项工作表明,高质量的n-gram语言模型可以直接在客户端移动设备上进行训练,而不会有敏感的训练数据离开设备。

2019年第六学期任务6:识别和分类社交媒体中的冒犯性语言(冒犯性评估)

基于一个新的数据集,给出了2019年SemEval任务6“识别和分类社交媒体中的攻击性语言”(OffenseEval)的结果和主要发现,该任务包含14000多条英语推文。

社交媒体中攻击性帖子的类型和目标预测

冒犯性语言识别数据集(OLID)是一个新的数据集,使用细粒度的三层注释方案为冒犯性内容注释推文。

FBERT:识别攻击性内容的神经变换器

基于变换器的模型(如BERT、XLNET和XLM-R)在各种NLP任务中实现了最先进的性能,包括识别攻击性语言和仇恨语言,以及

HateXplain:可解释仇恨语音检测的基准数据集

引入了HateXplain,这是第一个涵盖问题多个方面的基准仇恨语音数据集,它利用现有的最先进模型,观察到利用人类理性进行训练的模型在减少对目标社区的无意偏见方面表现得更好。

音译和混合代码孟加拉语中的冒犯性语言识别

本文介绍了TB-OLID,这是一个包含5000条人工注释注释的音译孟加拉语攻击性语言数据集,并在TB-OLID上训练和微调机器学习模型,并在该数据集上评估其结果。

参数高效快速调整和自适应优化的大型语言模型联合学习

开发了一种带自适应优化的参数高效提示调整方法,即FedPepTAO,以实现LLM的高效FL,并开发了一个新的自适应优化方法来解决设备和服务器端的客户端漂移问题,以进一步提高性能。

FIRE 2022 HASOC子跟踪概述:英语和印度-东盟语言中的仇恨言语和攻击性内容识别

近年来,网络攻击性内容的传播备受关注,促使研究人员开发能够自动识别此类内容的强大系统,HASOC(仇恨言论和攻击性内容识别)共享任务就是其中之一。