@在过程中{cruz-2023-samsung,title=“{S} 安盛{R}{&}{D}研究所{P} 山峰位于{WMT}2023“,author=“Cruz,Jan Christian Blaise”,editor=“Koehn、Philipp和哈多、巴里和科米、汤姆和蒙兹,克里斯托夫“,booktitle=“第八届机器翻译会议论文集”,月=12月,年=“2023”,address=“新加坡”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.wmt-1.6”,doi=“10.18653/v1/2023.wmt-1.6”,pages=“103--109”,abstract=“在本文中,我们描述了三星R{&}菲律宾研究所向WMT 2023通用翻译任务的两个方向的受限提交系统:en-{textgreater}he和he-{textgreater}英语。我们的系统由基于Transformer的序列到序列模型组成,这些模型采用多种最佳实践进行训练:综合数据预处理管道、合成回译数据以及在线解码期间使用噪声信道重新排序。尽管FLORES-200和NTREX-128这两个公共基准的参数明显较少,但我们的模型的性能与mBART50 M2M和NLLB 200 MoE等强基线无约束系统相当,有时甚至优于后者。”,}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“cruz-2023-samsung”><标题信息><title>三星R&;WMT 2023菲律宾研究所</titleInfo><name type=“personal”>一月克里斯蒂安<namePart type=“given”>Blaise</namePart>克鲁兹<角色>作者</角色></name><originInfo>2023-12发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>第八届机器翻译会议记录</titleInfo><name type=“personal”>飞利浦科恩<角色>编辑器</角色></name><name type=“personal”>巴里哈多<角色>编辑器</角色></name><name type=“personal”>汤姆科克米<角色>编辑器</角色></name><name type=“personal”>克里斯托夫蒙兹<角色>编辑器</角色></name><originInfo><publisher>计算语言学协会</publisher><位置>新加坡</place></originInfo><type-authority=“marcgt”>会议出版物</type></relatedItem>在本文中,我们描述了三星R&;D菲律宾研究所向WMT 2023通用翻译任务提供两个方向:en-\textgreaterhe和he-\textgraateren。我们的系统由基于Transformer的序列到序列模型组成,这些模型采用多种最佳实践进行训练:综合数据预处理管道、合成回译数据以及在线解码期间使用噪声信道重新排序。尽管FLORES-200和NTREX-128这两个公共基准的参数明显较少,但我们的模型的性能与mBART50 M2M和NLLB 200 MoE等强基线无约束系统相当,有时甚至优于它们cruz-2023-samsung10.18653/v1/2023.wmt-1.6<位置><网址>https://aclantology.org/2023.wmt-1.6</url></位置><部分>2023-12年<扩展单元=“page”><开始>103<end>109</范围></部分></mods></modsCollection>
%0会议记录%T Samsung R&D Institute Philippines参加WMT 2023%A Cruz,Jan Christian Blaise%Y Koehn,菲利普%巴里·Y·哈多%Y Kocmi,汤姆%克里斯托夫·蒙兹%第八届机器翻译会议论文集%2023年4月%12月8日%计算语言学协会%C新加坡%F cruz-2023-三星%X在本文中,我们描述了三星菲律宾研发院对WMT 2023通用翻译任务的两个方向的约束提交系统:en-\textgreaterhe和he-\textgreateren。我们的系统由基于Transformer的序列到序列模型组成,这些模型采用多种最佳实践进行训练:综合数据预处理管道、合成回译数据以及在线解码期间使用噪声信道重新排序。尽管FLORES-200和NTREX-128这两个公共基准的参数明显较少,但我们的模型的性能与mBART50 M2M和NLLB 200 MoE等强基线无约束系统相当,有时甚至优于后者。%R10.18653/v1/2023.wmt-1.6%U型https://aclantology.org/2023.wmt-1.6%U型https://doi.org/10.18653/v1/2023.wmt-1.6%电话:103-109
降价(非正式)
【三星菲律宾研发院参加WMT 2023】(https://aclantology.org/2023.wmt-1.6)(克鲁兹,WMT 2023)
国际计算语言学协会
- 简·克里斯蒂安·布莱斯·克鲁兹(Jan Christian Blaise Cruz)。2023WMT 2023菲律宾三星研发院.英寸第八届机器翻译会议记录,第103–109页,新加坡。计算语言学协会。