@在过程{huang-etal-2022-entropy,title=“基于熵的词汇替换在多语言神经机器翻译中的增量学习”,author=“黄、凯玉和李鹏马、金和刘,杨“,editor=“Goldberg、Yoav和科扎列娃、佐尔尼察和张岳”,booktitle=“2022年自然语言处理实证方法会议记录”,月=12月,年=“2022”,address=“阿拉伯联合酋长国阿布扎比”,publisher=“计算语言学协会”,url=“https://aclantology.org/2022.emnlp-main.720”,doi=“10.18653/v1/2022.emnlp-main.720”,pages=“10537--10550”,抽象=“在实际的现实场景中,长期的目标是当新的语言对到来时,通用多语言翻译模型可以逐步更新。具体来说,初始词汇表只涵盖新语言中的一些单词,这会影响增量学习的翻译质量。尽管现有的方法为了解决这个问题,这些方法不能同时满足以下三个要求:(1)原始语言和增量语言的高翻译质量;(2)模型训练的低成本;(3)预处理的时间开销低。在这项工作中,我们提出了一种基于熵的词汇替换(EVS)方法,该方法只需要遍历新的语言对,以便在大规模多语言数据更新中进行增量学习,同时保持词汇的大小。我们的方法可以从更新的训练样本中逐步学习新知识,同时保持原始语言对的高翻译质量,缓解灾难性遗忘的问题。实验结果表明,在多语言机器翻译任务中,EVS可以获得更好的性能,并节省增量学习的额外开销。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“huang-etal-2022-entropy”><标题信息>基于熵的词汇替换在多语言神经机器翻译增量学习中的应用</titleInfo><name type=“personal”>凯玉<namePart type=“given”>黄<namePart type=“family”><角色>作者</角色></name><name type=“personal”>彭<namePart type=“given”>李<namePart type=“family”><角色>作者</角色></name><name type=“personal”>Jin(金)<namePart type=“family”>马</namePart><角色>作者</角色></name><name type=“personal”>杨(Yang)<namePart type=“family”>刘</namePart><角色>作者</角色></name><originInfo>2022-12发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>2022年自然语言处理实证方法会议记录</titleInfo><name type=“personal”>Yoav戈德堡<角色>编辑器</角色></name><name type=“personal”>佐尔尼察科扎列娃<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>岳<namePart type=“family”>张<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>阿拉伯联合酋长国阿布扎比</place></originInfo>会议出版物</relatedItem><abstract>在实际的现实世界场景中,长期的目标是,当新的语言对到来时,可以逐步更新通用的多语言翻译模型。具体来说,初始词汇表只涵盖了新语言中的一些单词,这会影响增量学习的翻译质量。尽管现有的方法试图通过用重建的词汇替换原始词汇或构建独立的特定语言词汇来解决这个问题,但这些方法不能同时满足以下三个要求:(1)原始语言和增量语言的高翻译质量;(2)模型训练成本低,(3)预处理时间开销小。在这项工作中,我们提出了一种基于熵的词汇替换(EVS)方法,该方法只需要遍历新的语言对,以便在大规模多语言数据更新中进行增量学习,同时保持词汇的大小。我们的方法可以从更新的训练样本中逐步学习新知识,同时保持原始语言对的高翻译质量,缓解灾难性遗忘的问题。实验结果表明,在多语言机器翻译任务中,EVS可以获得更好的性能,并为增量学习节省额外的开销</摘要><identifier type=“citekey”>huang-etal-2022-熵10.18653/v1/2022.emnlp-main.720<位置><网址>https://aclantology.org/2022.emnlp-main.720</url></位置><部分><日期>2022-12年</日期><扩展单元=“page”><开始>10537</开始><end>10550</范围></部分></mods></modsCollection>
%0会议记录%基于T熵的词汇替换在多语言神经机器翻译增量学习中的应用%阿黄、凯玉%阿丽,彭%阿玛、金%A刘,杨%Y Goldberg,约夫%佐尔尼察Y Kozareva%Y Zhang,岳%2022年自然语言处理实证方法会议论文集%D 2022年%12月8日%计算语言学协会%C阿拉伯联合酋长国阿布扎比%F huang-etal-2022-熵%X在实际的真实场景中,长期的目标是当新的语言对到达时,通用多语言翻译模型可以增量更新。具体来说,初始词汇表只涵盖了新语言中的一些单词,这会影响增量学习的翻译质量。尽管现有的方法试图通过用重建的词汇替换原始词汇或构建独立的特定语言词汇来解决这个问题,但这些方法不能同时满足以下三个要求:(1)原始语言和增量语言的高翻译质量;(2)模型训练成本低,(3)预处理时间开销小。在这项工作中,我们提出了一种基于熵的词汇替换(EVS)方法,该方法只需要遍历新的语言对,以便在大规模多语言数据更新中进行增量学习,同时保持词汇的大小。我们的方法可以从更新的训练样本中逐步学习新知识,同时保持原始语言对的高翻译质量,缓解灾难性遗忘的问题。实验结果表明,在多语言机器翻译任务中,EVS可以获得更好的性能,并节省增量学习的额外开销。%R10.18653/v1/2022.emnlp-main.720%U型https://aclantology.org/2022.emnlp-main.720%U型https://doi.org/10.18653/v1/2022.emnlp-main.720%电话:10537-10550
降价(非正式)
【基于熵的词汇替换在多语言神经机器翻译中的增量学习】(https://aclantology.org/2022.emnlp-main.720)(Huang等人,EMNLP 2022)
国际计算语言学协会