@正在进行{laskar-etal-2022-cnlp,title=“{CNLP}-{NITS}-{PP}at{WANLP}2022共享任务:使用数据增强和{A}-ra{BERT}预训练模型在{A}狂犬病中进行宣传检测”,author=“Laskar、Sahinur Rahman和辛格、拉胡尔和Khilji、Abdullah Faiz Ur Rahman和Manna、Riyanka和Pakray、Partha和西瓦吉省班迪奥帕提亚”,editor=“Bouamor、Houda和Al-Khalifa、Hend和Darwish、Kareem和兰博、欧文和布加尔、费蒂和阿卜杜拉利、艾哈迈德和Tomeh、Nadi和哈里发、萨拉姆和瓦伊迪·扎古瓦尼”,booktitle=“第七届阿拉伯语自然语言处理研讨会(WANLP)论文集”,月=12月,年=“2022”,address=“阿拉伯联合酋长国阿布扎比(混合)”,publisher=“计算语言学协会”,url=“https://aclantology.org/2022.wanlp-1.65”,doi=“10.18653/v1/2022.wanlp-1.65”,pages=“541--544”,abstract=“在今天{'}现在,网络用户经常接触到宣传性的媒体帖子。为了应对这种情况,已经制定了若干战略来促进阿拉伯语媒体的安全消费。然而,可用的多标签注释社交媒体数据集有限。在这项工作中,我们通过数据增强在扩展的列车数据上使用了一个预训练的AraBERT推特基模型。我们的团队CNLP-NITS-PP在WANLP-2022的子任务1中取得了第三名,阿拉伯语宣传检测(共享任务)的micro-F1得分为0.602。”,}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“laskar-etal-2022-cnlp”><标题信息>WANLP 2022的CNLP-NITS-PP共享任务:使用数据增强和AraBERT预训练模型进行阿拉伯语宣传检测</titleInfo><name type=“personal”>Sahinur拉赫曼拉斯卡尔<角色>作者</角色></name><name type=“personal”>拉胡尔辛格<角色>作者</角色></name><name type=“personal”>阿卜杜拉<namePart type=“given”>Faiz</namePart><namePart type=“given”>Ur</namePart>拉赫曼基尔吉语<角色>作者</角色></name><name type=“personal”>里扬卡曼娜<角色>作者</角色></name><name type=“personal”><namePart type=“given”>第二部分Pakray<角色>作者</角色></name><name type=“personal”>西瓦吉语Bandyopadhyay公司<角色>作者</角色></name><originInfo>2022-12发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息><title>第七届阿拉伯语自然语言处理研讨会(WANLP)论文集</title></titleInfo><name type=“personal”>侯达布阿莫尔<角色>编辑器</角色></name><name type=“personal”>亨德Al-Khalifa<角色>编辑器</角色></name><name type=“personal”>卡里姆达维什<角色>编辑器</角色></name><name type=“personal”>欧文兰博(Rambow)<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>Fethi</namePart>费提</namePart布加尔<角色>编辑器</角色></name><name type=“personal”>艾哈迈德阿卜杜拉利<角色>编辑器</角色></name><name type=“personal”>纳迪托梅赫<角色>编辑器</角色></name><name type=“personal”>萨拉姆<namePart type=“family”>哈利法</namePart><角色>编辑器</角色></name><name type=“personal”>Wajdi扎古瓦尼<角色>编辑器</角色></name><originInfo>计算语言学协会<地点>阿拉伯联合酋长国阿布扎比(混合)</place></originInfo>会议出版物</relatedItem><abstract>在当今时代,在线用户经常接触到宣传性的媒体帖子。为了应对这种情况,已经制定了若干战略来促进阿拉伯语媒体的安全消费。然而,可用的多标签注释社交媒体数据集有限。在这项工作中,我们通过数据增强在扩展的列车数据上使用了一个预训练的AraBERT推特基模型。我们的团队CNLP-NITS-PP在WANLP-2022的子任务1中取得了第三名,阿拉伯语宣传检测(共享任务)的micro-F1得分为0.602laskar-etal-2022-cnlp10.18653/v1/2022.wanlp-1.65<位置><网址>https://aclantology.org/2022.wanlp-1.65</url></位置><部分><日期>2022-12年</日期><扩展单元=“page”><开始>541<end>544</范围></部分></mods></modsCollection>
%0会议记录%T CNLP-NITS-PP在WANLP 2022共享任务:使用数据增强和AraBERT预训练模型进行阿拉伯语宣传检测%萨希努·拉赫曼·拉斯卡尔%拉胡尔·辛格%阿卜杜拉·费兹·乌尔·拉赫曼%A Manna,里扬卡%巴克利,Partha%西瓦吉,班多帕提亚%Y Bouamor,Houda公司%Y Al-Khalifa,亨德%Y Darwish,卡里姆%欧文·Y·兰博%Y Bougares,费蒂%艾哈迈德·阿卜杜拉利%纳迪·Y·托梅赫%萨拉姆Y Khalifa%瓦吉迪·扎古瓦尼%第七届阿拉伯语自然语言处理研讨会(WANLP)论文集%D 2022年%12月8日%计算语言学协会%C阿布扎比,阿拉伯联合酋长国(混合)%F laskar-etal-2022-cnlp公司%X在当今时代,网络用户经常接触到宣传性的媒体帖子。为了应对这种情况,已经制定了若干战略来促进阿拉伯语媒体的安全消费。然而,可用的多标签注释社交媒体数据集有限。在这项工作中,我们通过数据增强在扩展的列车数据上使用了一个预训练的AraBERT推特基模型。我们的团队CNLP-NITS-PP在WANLP-2022的子任务1中取得了第三名,阿拉伯语宣传检测(共享任务)的micro-F1得分为0.602。%R10.18653/v1/2022.wanlp-1.65%U型https://aclantology.org/2022.wanlp-1.65%U型https://doi.org/10.18653/v1/2022.wanlp-1.65%电话541-544
降价(非正式)
[WANLP 2022的CNLP-NITS-PP共享任务:使用数据增强和AraBERT预训练模型进行阿拉伯语宣传检测](https://aclantology.org/2022.wanlp-1.65)(拉斯卡尔等人,WANLP 2022)
国际计算语言学协会