@正在进行中{陈旺-2023-sjtu,title=“{交大}-{MTLAB}{'}提交给{WMT}23文字级自动完成任务“,author=“陈、星宇和王瑞“,editor=“Koehn、Philipp和哈多、巴里和科米、汤姆和蒙兹,克里斯托夫“,booktitle=“第八届机器翻译会议论文集”,月=12月,年=“2023”,address=“新加坡”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.wmt-1.77",doi=“10.18653/v1/2023.wmt-1.77”,pages=“872--876”,abstract=“单词级自动补全(WLAC)在计算机辅助翻译中起着至关重要的作用。在本文中,我们描述了SJTU-MTLAB{'}提交给WMT23 WLAC任务。我们提出了一种将机器翻译任务合并到WLAC任务中的联合方法。该方法具有通用性,可以应用于各种基于编码器的体系结构。通过大量实验,我们证明了我们的方法可以大大提高性能,同时保持显著较小的模型大小。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“chen-wang-2023-sjtu”><标题信息>SJTU-MTLAB提交WMT23文字级自动完成任务</titleInfo><name type=“personal”>星宇<namePart type=“given”><namePart type=“family”>陈</namePart><角色>作者</角色></name><name type=“personal”>Rui(Rui)<namePart type=“family”>王</namePart><角色>作者</角色></name><originInfo>2023-12发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第八届机器翻译会议记录</titleInfo><name type=“personal”>飞利浦科恩<角色>编辑器</角色></name><name type=“personal”>巴里哈多<角色>编辑器</角色></name><name type=“personal”>汤姆科克米<角色>编辑器</角色></name><name type=“personal”>克里斯托夫蒙兹<角色>编辑器</角色></name><originInfo><publisher>计算语言学协会</publisher><位置>新加坡</place></originInfo><type-authority=“marcgt”>会议出版物</type></relatedItem>单词级自动补全(WLAC)在计算机辅助翻译中起着至关重要的作用。在本文中,我们描述了SJTU-MTLAB提交给WMT23 WLAC任务的情况。我们提出了一种将机器翻译任务合并到WLAC任务中的联合方法。该方法具有通用性,可以应用于各种基于编码器的体系结构。通过大量实验,我们证明了我们的方法可以大大提高性能,同时保持显著较小的模型大小</摘要>陈旺-2023-sjtu10.18653/v1/2023.wmt-1.77<位置><网址>https://aclantology.org/2023.wmt-1.77</url></位置><部分>2023-12年<扩展单元=“page”><开始>872</开始><end>876</范围></部分></mods></modsCollection>
%0会议记录%T SJTU-MTLAB提交WMT23文字级自动完成任务%A Chen、Xingyu%王瑞%Y Koehn,菲利普%巴里·Y·哈多%Y Kocmi,汤姆%克里斯托夫·蒙兹%第八届机器翻译会议论文集%2023年4月%12月8日%计算语言学协会%C新加坡%F陈旺-2023-sjtu%X字级自动补全(WLAC)在计算机辅助翻译中起着至关重要的作用。在本文中,我们描述了SJTU-MTLAB提交给WMT23 WLAC任务的情况。我们提出了一种将机器翻译任务合并到WLAC任务中的联合方法。该方法具有通用性,可以应用于各种基于编码器的体系结构。通过大量实验,我们证明了我们的方法可以大大提高性能,同时保持显著较小的模型大小。%R10.18653/v1/2023.wmt-1.77%U型https://aclantology.org/2023.wmt-1.77%U型https://doi.org/10.18653/v1/2023.wmt-1.77%电话872-876
降价(非正式)
[SJTU-MTLAB提交给WMT23字级自动完成任务](https://aclantology.org/2023.wmt-1.77)(Chen&Wang,WMT 2023)
国际计算语言学协会