@进行中{pfeiffer-etal-2022-吊装,title=“通过预培训模块化变压器来解除多语的诅咒”,author=“Pfeiffer、Jonas和戈亚尔、纳曼和Lin、Xi和李、西安和克罗斯、詹姆斯和里德尔、塞巴斯蒂安和米克尔·阿泰特克斯“,editor=“Carpuat、Marine和德马内夫、玛丽·凯瑟琳和Meza Ruiz,Ivan Vladimir“,booktitle=“计算语言学协会北美分会2022年会议记录:人类语言技术”,月=七月,年=“2022”,address=“美国西雅图”,publisher=“计算语言学协会”,url=“https://aclantology.org/2022.naacl-main.255”,doi=“10.18653/v1/2022.naacl-main.255”,页码=“3479-3495”,抽象=“众所周知,多语言预训练模型会受到多语言的诅咒,这会导致每种语言的性能下降,因为它们涵盖了更多的语言。我们通过引入特定于语言的模块来解决这个问题,这允许我们增加模型的总容量,同时保持每种语言可训练参数的总数年龄常数。与之前学习特定语言组件的后期工作相比,我们从一开始就预先学习了跨语言模块(X-Mod)模型的模块。我们在自然语言推理、命名实体识别和问答方面的实验表明,我们的方法不仅缓解了语言之间的负面干扰,而且能够实现正向迁移,从而提高了单语和跨语言性能。此外,我们的方法能够在性能没有明显下降的情况下添加后期语言,不再将模型使用限制为预先训练的语言集。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“pfeiffer-etal-2022-吊装”><标题信息>通过预先培训模块化变压器消除多语言诅咒</titleInfo><name type=“个人”>乔纳斯Pfeiffer公司<角色>作者</角色></name><name type=“个人”><namePart type=“given”>Naman戈亚尔<角色>作者</角色></name><name type=“个人”>Xi林<角色>作者</角色></name><name type=“个人”>西安李<namePart type=“family”><角色>作者</角色></name><name type=“个人”>詹姆斯交叉<角色>作者</角色></name><name type=“个人”>塞巴斯蒂安里德尔<角色>作者</角色></name><name type=“个人”>米克尔Artetxe<角色>作者</角色></name><originInfo>2022-07发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会北美分会2022年会议记录:人类语言技术</titleInfo><name type=“个人”><namePart type=“given”>船用</namePart>卡普阿特<角色>编辑器</角色></name><name type=“个人”>玛丽·凯瑟琳<namePart type=“family”>de Marneffe</namePart><角色>编辑器</角色></name><name type=“个人”>伊凡弗拉基米尔梅扎·鲁伊斯<角色>编辑器</角色></name><originInfo><publisher>计算语言学协会</publisher><位置>美国西雅图</place></originInfo>会议出版物</relatedItem>众所周知,多语言预训练模型会受到多语言的诅咒,这会导致每种语言的性能下降,因为它们涵盖了更多的语言。我们通过引入特定于语言的模块来解决这个问题,它允许我们增加模型的总容量,同时保持每种语言的可训练参数总数不变。与之前学习特定语言组件的后期工作相比,我们从一开始就预先学习了跨语言模块(X-Mod)模型的模块。我们在自然语言推理、命名实体识别和问答方面的实验表明,我们的方法不仅缓解了语言之间的负面干扰,而且能够实现正向迁移,从而提高了单语和跨语言性能。此外,我们的方法能够在性能没有明显下降的情况下添加后期语言,不再将模型使用限制为预先训练的语言集</摘要>pfeiffer-etal-2022-吊装10.18653/v1/2022.naacl-main.255<位置><网址>https://aclantology.org/2022.naacl-main.255</url></位置><部分>2022-07年<扩展单元=“page”><开始>3479</开始><end>3495</end></范围></部分></mods></modsCollection>
%0会议记录%通过预训练模块化变压器解除多语言诅咒%乔纳斯,费佛%纳曼·A Goyal%阿琳,奚%西安阿丽%詹姆斯,十字架%塞巴斯蒂安·里德尔%阿泰特克斯,米克尔%Y Carpuat,海军%Y de Marneffe,玛丽·凯瑟琳%Y Meza Ruiz,伊万·弗拉基米尔%计算语言学协会北美分会2022年会议记录:人类语言技术%D 2022年%7月8日%计算语言学协会%C美国西雅图%F pfeiffer-etal-2022-起重%X众所周知,多语言预训练模型会受到多语言的诅咒,这会导致每种语言的性能下降,因为它们涵盖了更多的语言。我们通过引入特定于语言的模块来解决这个问题,它允许我们增加模型的总容量,同时保持每种语言的可训练参数总数不变。与之前学习特定语言组件的后期工作相比,我们从一开始就预先学习了跨语言模块(X-Mod)模型的模块。我们在自然语言推理、命名实体识别和问答方面的实验表明,我们的方法不仅缓解了语言之间的负面干扰,而且能够实现正向迁移,从而提高了单语和跨语言性能。此外,我们的方法能够在没有可测量的性能下降的情况下事后添加语言,不再将模型的使用限制在预先训练的语言集。%R 10.18653/v1/2022.naacl-main.255%U型https://aclantology.org/2022.naacl-main.255%U型https://doi.org/10.18653/v1/2022-naacl-min.255(网址:https://doi.org/10.18653/v1/2022-naacl-min.255)%电话:3479-3495
降价(非正式)
[通过预先培训模块化变压器解除多语言诅咒](https://aclantology.org/2022.naacl-main.255)(Pfeiffer等人,NAACL 2022)
国际计算语言学协会
- 乔纳斯·菲佛、纳曼·戈亚尔、希林、冼丽、詹姆斯·克罗斯、塞巴斯蒂安·里德尔和米凯尔·阿特克斯。2022通过预训练模块化变压器消除多语言诅咒.英寸计算语言学协会北美分会2022年会议记录:人类语言技术,第3479–3495页,美国西雅图。计算语言学协会。