CNLP公司-NITS公司-聚丙烯WANLP公司2022共享任务:中的宣传检测一个使用数据增强和一个ra(无线电高度表)BERT(误码率)预训练模型

萨希努·拉赫曼·拉斯卡尔拉赫尔·辛哈阿卜杜拉·法伊兹·乌尔·拉赫曼·基尔吉里扬卡·曼娜Partha Pakray公司锡瓦吉·班迪奥帕提亚


摘要
在当今时代,网络用户经常接触到宣传性的媒体帖子。为了应对这种情况,已经制定了若干战略来促进阿拉伯语媒体的安全消费。然而,可用的多标签注释社交媒体数据集有限。在这项工作中,我们通过数据增强在扩展的列车数据上使用了一个预训练的AraBERT推特基模型。我们的团队CNLP-NITS-PP在WANLP-2022的子任务1中取得了第三名,阿拉伯语宣传检测(共享任务)的micro-F1得分为0.602。
选集ID:
2022.wanlp-1.65年
体积:
第七届阿拉伯语自然语言处理研讨会(WANLP)会议记录
月份:
十二月
年份:
2022
地址:
阿拉伯联合酋长国阿布扎比(混合)
编辑:
Houda Bouamor公司亨德·哈利法卡里姆·达维什欧文·兰博费提·布加雷斯艾哈迈德·阿卜杜拉利纳迪·托梅赫萨拉姆哈里发瓦吉迪·扎古瓦尼
地点:
WANLP公司
SIG公司:
出版商:
计算语言学协会
注:
页:
541–544
语言:
网址:
https://aclantology.org/2022.wanlp-1.65
内政部:
10.18653/v1/2022.wanlp-1.65
比比键:
引用(ACL):
萨希努·拉赫曼·拉斯卡尔(Sahinur Rahman Laskar)、拉胡尔·辛格(Rahul Singh)、阿卜杜拉·法伊兹·乌尔·拉赫曼·基尔吉(Abdullah Faiz Ur Rahman Khilji)、里扬卡·曼纳(Riyanka Manna)、帕塔·巴克利(Partha Pakray)和西瓦。2022WANLP 2022的CNLP-NITS-PP共享任务:使用数据增强和AraBERT预训练模型进行阿拉伯语宣传检测.英寸第七届阿拉伯语自然语言处理研讨会(WANLP)会议记录,第541-544页,阿拉伯联合酋长国阿布扎比(混合)。计算语言学协会。
引用(非正式):
WANLP 2022的CNLP-NITS-PP共享任务:使用数据增强和AraBERT预训练模型进行阿拉伯语宣传检测(拉斯卡尔等人,WANLP 2022)
复制引文:
PDF格式:
https://aclcollectory.org/2022.wanlp-1.65.pdf