@进行中{swaminathan-cook-2023代币,title=“使用预先训练的多语言模型对多词表达式进行标记级识别”,author=“Swaminathan、Raghuraman和保罗·库克”,editor=“巴蒂亚、阿奇纳和Evang、Kilian和加西亚、马科斯和Giouli、Voula和韩、李峰和湿婆岛塔斯利米波尔”,booktitle=“第19届多词表达研讨会论文集(MWE 2023)”,月=5月,年=“2023”,address=“克罗地亚杜布罗夫尼克”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.mwe-1.1”,doi=“10.18653/v1/2023.mwe-1.1”,pages=“1--6”,abstract=“在本文中,我们考虑了多词表达(MWE)识别(Ramisch等人,2020)和惯用性预测(Tayyar-Madabushi等人,2022)的新型跨语言设置在该系统中,对训练期间看不见的语言进行测试。我们的研究结果表明,经过预训练的多语种语言模型能够学习关于MWE和非特定语言的惯用语的知识。此外,我们发现其他语言的训练数据可以用于改进单语模型。",}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“swaminath-cook-2023-token”><标题信息>使用预先训练的多语言模型对多词表达式进行标记级识别</titleInfo><name type=“personal”><namePart type=“given”>拉古拉曼</namePart>Swaminathan系列<角色>作者</角色></name><name type=“personal”>保罗</namePart>厨师<角色>作者</角色></name><originInfo>发布日期:2023-05发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第19届多词表达研讨会(MWE 2023)会议记录</titleInfo><name type=“personal”>阿奇纳建筑事务所巴蒂亚<角色>编辑器</角色></name><name type=“personal”>基里安Evang公司<角色>编辑器</角色></name><name type=“personal”>马科斯加西亚<角色>编辑器</角色></name><name type=“personal”>Voula公司乔利(Giouli)<角色>编辑器</角色></name><name type=“personal”>Lifeng有限公司韩寒<角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><name type=“personal”>湿婆星塔斯利米波尔<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>克罗地亚杜布罗夫尼克</place></originInfo>会议出版物</relatedItem><摘要>在本文中,我们考虑了新的跨语言设置,用于多词表达(MWE)识别(Ramisch等人,2020)和惯用性预测(Tayyar Madabushi等人,2022),在这些设置中,系统将在训练期间看不到的语言上进行测试。我们的研究结果表明,经过预训练的多语种语言模型能够学习关于MWE和非特定语言的惯用语的知识。此外,我们发现其他语言的训练数据可以用于改进单语模型</摘要><identifier type=“citekey”>swaminath-cook-2023-令牌<identifier type=“doi”>10.18653/v1/2023。mwe-1.1<identifier><位置><网址>https://aclantology.org/2023.mwe-1.1</url></位置><部分><日期>2023-05</日期><扩展单元=“page”><开始>1<end>6</范围></部分></mods></modsCollection>
%0会议记录%基于预训练多语言模型的多词表达的T标记级识别%A Swaminathan,拉古拉曼%厨师,保罗%阿奇纳·Y·巴蒂亚%基里安·Y·埃文%马科斯·加西亚%沃拉·Y·朱利%Y Han,李峰%Y Taslimipoor,湿婆%第19届多词表达研讨会论文集(MWE 2023)%D 2023年%5月8日%计算语言学协会%C杜布罗夫尼克,克罗地亚%F swaminathan-cook-2023代币%X在本文中,我们考虑了用于多词表达(MWE)识别(Ramisch等人,2020)和惯用性预测(Tayyar-Madabushi等人,2022)的新的跨语言设置,在这些设置中,系统将在训练期间看不到的语言上进行测试。我们的研究结果表明,经过预训练的多语种语言模型能够学习关于MWE和非特定语言的惯用语的知识。此外,我们发现其他语言的训练数据可以用于改进单语模型。%R10.18653/v1/2023.分子量-1.1%U型https://aclantology.org/2023.mwe-1.1%U型https://doi.org/10.18653/v1/2023.mwe-1.1%第1-6页
降价(非正式)
[使用预先训练的多语言模型对多词表达式进行标记级识别](https://aclantology.org/2023.mwe-1.1)(Swaminathan&Cook,MWE 2023)
国际计算语言学协会
- Raghuraman Swaminathan和Paul Cook。2023基于预训练多语言模型的多词表达的标记级识别.英寸第19届多词表达研讨会会议记录(MWE 2023),第1-6页,克罗地亚杜布罗夫尼克。计算语言学协会。