@正在进行{sharma-etal-2022敏感,title=“翻译系统对额外语境的敏感性如何?通过相关语境缓解神经机器翻译模型中的性别偏见。”,author=“Sharma、Shanya和Dey、Manan和库斯图夫·辛哈“,editor=“Goldberg、Yoav和科扎列娃、佐尔尼察和张岳”,booktitle=“计算语言学协会的发现:EMNLP 2022”,月=12月,年=“2022”,address=“阿拉伯联合酋长国阿布扎比”,publisher=“计算语言学协会”,url=“https://aclantology.org/2022.findings-emnlp.143”,doi=“10.18653/v1/2022.findings-emnlp.143”,pages=“1968--1984”,抽象=“建立在Transformer基础架构之上的神经机器翻译系统,根据词汇重叠度量标准,正在常规地提高翻译质量的最新水平。然而,越来越多的研究也强调了这些模型在培训期间所包含的固有性别偏见,这在其翻译中反映出很差的性别偏见选项。在这项工作中,我们研究了是否可以指示这些模型在使用有针对性的、有指导的指令作为上下文的推理过程中修复其偏差。通过在推理过程中翻译相关的上下文句子以及输入,我们发现在三个流行的测试套件(WinoMT、BUG、SimpleGen)中,在减少翻译中的性别偏见方面有了很大的改进。我们进一步提出了一种新的度量标准,以评估几个大型预训练模型(OPUS-MT,M2M-100)对在翻译过程中使用上下文纠正其偏见的敏感性。我们的方法不需要微调,因此可以很容易地在生产系统中使用,从陈规定型的性别职业偏见中去除偏见。我们希望我们的方法和度量可以用于构建更好的、无偏见的翻译系统。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“sharma-etal-2022-sensitive”><标题信息><title>翻译系统对额外的上下文有多敏感?通过相关上下文缓解神经机器翻译模型中的性别偏见</标题></titleInfo><name type=“personal”>ShanyaSharma(Sharma)<角色>作者</角色></name><name type=“personal”>马南迪伊<角色>作者</角色></name><name type=“personal”>库斯图夫辛哈<角色>作者</角色></name><originInfo>2022-12发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会的发现:EMNLP 2022</titleInfo><name type=“personal”><namePart type=“given”>Yoav</namePart>戈德堡<角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><name type=“personal”>佐尔尼察科扎列娃<角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><name type=“personal”><namePart type=“given”>岳<namePart type=“family”>张<角色><roleTerm authority=“marcorrator”type=“text”>编辑器</roleTerm></角色></name><originInfo>计算语言学协会<位置>阿拉伯联合酋长国阿布扎比</place></originInfo>会议出版物</relatedItem>基于Transformer架构之上构建的神经机器翻译系统根据字重叠度量标准,定期提高翻译质量的最新水平。然而,越来越多的研究也强调了这些模型在培训期间所包含的固有性别偏见,这在其翻译中反映得很差。在这项工作中,我们研究了在使用有针对性的、有指导的指令作为上下文的推理过程中,是否可以指示这些模型修复它们的偏见。通过在推理过程中翻译相关的上下文句子以及输入,我们发现在三个流行的测试套件(WinoMT、BUG、SimpleGen)中,在减少翻译中的性别偏见方面有了很大的改进。我们进一步提出了一种新的度量标准,以评估几个大型预训练模型(OPUS-MT,M2M-100)对在翻译过程中使用上下文纠正其偏见的敏感性。我们的方法不需要微调,因此可以很容易地在生产系统中使用,从陈规定型的性别职业偏见中去除偏见。我们希望我们的方法和度量可以用于构建更好的、无偏见的翻译系统</摘要>对sharma-etal-2022敏感10.18653/v1/2022.findings-emnlp.143<位置><网址>https://aclantology.org/2022.findings-emnlp.143</url></位置><部分>2022-12年<扩展单元=“page”><start>1968年1984年年底</范围></部分></模块></modsCollection>
%0会议记录%翻译系统对额外的语境有多敏感?通过相关上下文缓解神经机器翻译模型中的性别偏见。%沙尔玛,山亚%A Dey,马南%A Sinha,库斯图夫%Y Goldberg,约夫%佐尔尼察Y Kozareva%Y Zhang,岳%计算语言学协会的发现:EMNLP 2022%D 2022年%12月8日%计算语言学协会%C阿拉伯联合酋长国阿布扎比%F sharma-etal-2022敏感%基于Transformer架构之上构建的X神经机器翻译系统根据字重叠度量标准,定期提高翻译质量的最新水平。然而,越来越多的研究也强调了这些模型在培训期间所包含的固有性别偏见,这在其翻译中反映得很差。在这项工作中,我们研究了是否可以指示这些模型在使用有针对性的、有指导的指令作为上下文的推理过程中修复其偏差。通过在推理过程中翻译相关的上下文句子以及输入,我们发现在三个流行的测试套件(WinoMT、BUG、SimpleGen)中,在减少翻译中的性别偏见方面有了很大的改进。我们进一步提出了一种新的度量标准,以评估几个大型预训练模型(OPUS-MT,M2M-100)对在翻译过程中使用上下文纠正其偏见的敏感性。我们的方法不需要微调,因此可以很容易地在生产系统中使用,从刻板的性别职业偏见中消除翻译的偏见。我们希望我们的方法和度量可以用于构建更好的、无偏见的翻译系统。%R 10.18653/v1/2022.查找-emnlp.143%U型https://aclantology.org/2022.findings-emnlp.143%U型https://doi.org/10.18653/v1/2022.findings-emnlp.143%1968-1984年
降价(非正式)
[翻译系统对额外语境的敏感性如何?通过相关语境缓解神经机器翻译模型中的性别偏见。](https://aclantology.org/2022.findings-emnlp.143)(Sharma等人,《2022年调查结果》)
国际计算语言学协会