DUTNLP公司系统WMT公司2023年语篇级文学翻译

赵安琪,黄凯玉,郝宇,黄德根(Degen Huang)


摘要
本文描述了DUTNLP实验室向WMT23语篇级文学翻译提交的无约束条件下的汉英翻译方向。我们的主要系统旨在利用带有各种提示策略的大型语言模型,充分研究大型语言模型在语篇级神经机器翻译中的潜在能力。此外,我们使用不同的训练策略测试了一个广泛使用的语篇级机器翻译模型G-transformer。在我们的实验结果中,使用大型语言模型的方法获得了28.16分的BLEU分数,而微调方法获得了25.26分。这些发现表明,与传统的模型训练方法相比,基于大型语言模型选择适当的提示策略可以显著提高翻译性能。
选集ID:
2023.wmt-1.31年
体积:
第八届机器翻译会议记录
月份:
十二月
年份:
2023
地址:
新加坡
编辑:
菲利普·科恩,巴里·哈多,汤姆·科米,克里斯托夫·蒙兹
地点:
WMT公司
SIG公司:
SIGMT公司
出版商:
计算语言学协会
注:
页码:
296–301
语言:
网址:
https://aclantology.org/2023.wmt-1.31
内政部:
10.18653/v1/2023.wmt-1.31
比比键:
引用(ACL):
赵安琪、黄凯玉、郝玉和黄德根。2023WMT2023语篇级文学翻译的DUTNLP系统.英寸第八届机器翻译会议记录,第296–301页,新加坡。计算语言学协会。
引用(非正式):
WMT2023语篇级文学翻译的DUTNLP系统(Zhao等人,WMT 2023)
复制引文:
PDF格式:
https://aclantology.org/2023.wmt-1.31.pdf