@在建项目{昭和塔尔-2023-dutnlp,title=“{WMT}2023语篇级文学翻译的{DUTNLP}系统”,author=“赵安琪黄、凯玉和Yu、Hao和黄德根“,editor=“Koehn、Philipp和哈多、巴里和科米、汤姆和蒙兹,克里斯托夫“,booktitle=“第八届机器翻译会议论文集”,月=12月,年份=“2023”,address=“新加坡”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.wmt-1.31”,doi=“10.18653/v1/2023.wmt-1.31”,pages=“296--301”,抽象=“本文描述了在不受约束的条件下,DUTNLP实验室提交给WMT23语篇级文学翻译的中文到英文翻译方向。我们的主要系统旨在利用具有各种提示策略的大型语言模型,充分研究大型语言的潜在能力语篇级神经机器翻译的ge模型。此外,我们使用不同的训练策略测试了一个广泛使用的语篇级机器翻译模型G-transformer。在我们的实验结果中,使用大型语言模型的方法获得了28.16分的BLEU分数,而微调方法获得了25.26分。这些发现表明,与传统的模型训练方法相比,基于大型语言模型选择适当的提示策略可以显著提高翻译性能。”,}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“zhao-etal-2023-dutnlp”><标题信息>WMT2023语篇级文学翻译的DUTNLP系统</titleInfo><name type=“personal”>安琪赵<namePart type=“family”><角色>作者</角色></name><name type=“personal”>凯玉<namePart type=“given”>黄<namePart type=“family”><角色>作者</角色></name><name type=“personal”>郝(音译)<namePart type=“family”>余</namePart><角色>作者</角色></name><name type=“personal”>德根黄<namePart type=“family”><角色>作者</角色></name><originInfo>2023-12发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第八届机器翻译会议记录</titleInfo><name type=“personal”>飞利浦科恩<角色>编辑器</角色></name><name type=“personal”>巴里哈多<角色>编辑器</角色></name><name type=“personal”>汤姆科克米<角色>编辑器</角色></name><name type=“personal”>克里斯托夫蒙兹<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>新加坡</地点></originInfo>会议出版物</relatedItem>本文描述了DUTNLP实验室提交给WMT23语篇级文学翻译的中英文翻译方向的无约束条件下的提交。我们的主要系统旨在利用带有各种提示策略的大型语言模型,充分研究大型语言模型在语篇级神经机器翻译中的潜在能力。此外,我们使用不同的训练策略测试了一个广泛使用的语篇级机器翻译模型G-transformer。在我们的实验结果中,使用大型语言模型的方法获得了28.16分的BLEU分数,而微调方法获得了25.26分。这些发现表明,与传统的模型训练方法相比,基于大型语言模型选择适当的提示策略可以显著提高翻译性能</摘要>赵伊塔-2023-dutnlp10.18653/v1/2023.wmt-1.31<位置><网址>https://aclantology.org/2023.wmt-1.31</url></位置><部分>2023-12年<扩展单元=“page”><开始>296<end>301</范围></部分></mods></modsCollection>
%0会议记录%WMT2023语篇级文学翻译的T DUTNLP系统%阿昭、安琪%阿黄、凯玉%阿玉,郝%阿黄、德根%Y Koehn,菲利普%巴里·Y·哈多%Y Kocmi,汤姆%克里斯托夫·蒙兹%第八届机器翻译会议论文集%D 2023年%12月8日%计算语言学协会%C新加坡%zhao-etal-2023-dutnlp传真%本文描述了DUTNLP实验室提交给WMT23语篇级文学翻译的中英文翻译方向的无限制条件下的提交。我们的主要系统旨在利用带有各种提示策略的大型语言模型,充分研究大型语言模型在语篇级神经机器翻译中的潜在能力。此外,我们用不同的训练策略测试了一个广泛使用的语篇级机器翻译模型G-transformer。在我们的实验结果中,使用大型语言模型的方法获得了28.16分的BLEU分数,而微调方法获得了25.26分。这些发现表明,与传统的模型训练方法相比,基于大型语言模型选择适当的提示策略可以显著提高翻译性能。%R10.18653/v1/2023.wmt-1.31%U型https://aclantology.org/2023.wmt-1.31%U型https://doi.org/10.18653/v1/2023.wmt-1.31%电话296-301
降价(非正式)
【WMT2023语篇级文学翻译的DUTNLP系统】(https://aclantology.org/2023.wmt-1.31)(Zhao等人,WMT 2023)
国际计算语言学协会