@进料{an-etal-2023-max,title=“{最大}-{ISI}系统位于{WMT}23语篇级文学翻译任务”,author=“安、李和金、凌浩和马雪哲“,editor=“Koehn、Philipp和哈多、巴里和科米、汤姆和蒙兹,克里斯托夫“,booktitle=“第八届机器翻译会议论文集”,月=12月,年份=“2023”,address=“新加坡”,publisher=“计算语言学协会”,url=“https://acl选集.org/2023.wmt-1.29”,doi=“10.18653/v1/2023.wmt-1.29”,pages=“282--286”,抽象=“本文描述了我们用于WMT23共享任务的翻译系统。我们参与了语篇级文学翻译任务受限跟踪。在我们的方法中,我们对传统的Transformer模型和最近引入的MEGA模型进行了比较分析,该模型在长时间建模方面表现出更强的能力-与传统变压器相比的测距序列。为了探讨语言模型是否可以使用段落级数据更有效地利用文档级上下文,我们采用了从组织者提供的原始文学数据集中句子到段落的方法。变压器和MEGA模型都使用了该段落级数据。为了确保在所有系统中进行公平的比较,我们采用了句子对齐策略,将翻译结果从段落级转换回句子级对齐。最后,我们的评估过程包括句子级指标,如BLEU,以及两个文档级指标:d-BLEU和BlonD。”,}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“an-etal-2023-max”><标题信息>WMT23语篇级文学翻译任务中的MAX-ISI系统</titleInfo><name type=“personal”><namePart type=“given”>Li</namePart><namePart type=“family”>一个</namePart><角色>作者</角色></name><name type=“personal”>凌浩Jin(金)<角色>作者</角色></name><name type=“personal”>学哲<namePart type=“family”>马</namePart><角色>作者</角色></name><originInfo>2023-12发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第八届机器翻译会议记录</titleInfo><name type=“personal”>飞利浦科恩<角色>编辑器</角色></name><name type=“personal”>巴里哈多<角色>编辑器</角色></name><name type=“personal”>汤姆科克米<角色>编辑器</角色></name><name type=“personal”>克里斯托夫蒙兹<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>新加坡</地点></originInfo>会议出版物</relatedItem>本文描述了WMT23共享任务的翻译系统。我们参与了语篇层面的文学翻译任务受限跟踪。在我们的方法中,我们对传统变压器模型和最近引入的MEGA模型进行了比较分析,与传统变压器相比,MEGA模型在建模远程序列方面表现出更强的能力。为了探讨语言模型是否可以使用段落级数据更有效地利用文档级上下文,我们采用了从组织者提供的原始文学数据集中句子到段落的方法。变压器和MEGA模型都使用了该段落级数据。为了确保所有系统之间的公平比较,我们采用了句子对齐策略,将翻译结果从段落级别反转为句子级别的对齐。最后,我们的评估过程包括语句级指标,如BLEU,以及两个文档级指标:d-BLEU和BlonD</摘要><identifier type=“citekey”>an-etal-2023-max</identifier>10.18653/v1/2023.wmt-1.29<位置><网址>https://aclantology.org/2023.wmt-1.29</url></位置><部分>2023-12年<扩展单元=“page”><开始>282<end>286</范围></部分></mods></modsCollection>
%0会议记录%WMT23语篇级文学翻译任务中的T MAX-ISI系统%A安,李%阿金、凌浩%阿玛、薛哲%Y Koehn,菲利普%巴里·Y·哈多%Y Kocmi,汤姆%克里斯托夫·蒙兹%第八届机器翻译会议论文集%D 2023年%12月8日%计算语言学协会%C新加坡%F an-etal-2023最大值%本文描述了WMT23共享任务的翻译系统。我们参与了语篇层面的文学翻译任务受限跟踪。在我们的方法中,我们对传统变压器模型和最近引入的MEGA模型进行了比较分析,与传统变压器相比,MEGA模型在建模远程序列方面表现出更强的能力。为了探讨语言模型是否可以使用段落级数据更有效地利用文档级上下文,我们采用了从组织者提供的原始文学数据集中句子到段落的方法。在Transformer和MEGA模型中都使用了该段落级别的数据。为了确保在所有系统中进行公平的比较,我们采用了句子对齐策略,将翻译结果从段落级转换回句子级对齐。最后,我们的评估过程包括语句级指标,如BLEU,以及两个文档级指标:d-BLEU和BlonD。%R10.18653/v1/2023.wmt-1.29%U型https://aclantology.org/2023.wmt-1.29%U型https://doi.org/10.18653/v1/2023.wmt-1.29%电话282-286
降价(非正式)
【WMT23语篇级文学翻译任务中的MAX-ISI系统】(https://aclantology.org/2023.wmt-1.29)(An等人,WMT 2023)
国际计算语言学协会