@在过程中{tu-etal-2024-有效地,title=“使用快速调节进行会话任务的高效协调跨语言迁移学习”,author=“涂、李甫和曲靖Yavuz、Semih和Joty、Shafiq和刘文浩和熊、蔡明和周英波”,editor=“Graham、Yvette和马修·普弗“,booktitle=“计算语言学协会的研究结果:EACL 2024”,月份=mar,年=“2024”,address=“马耳他圣朱利安教堂”,publisher=“计算语言学协会”,url=“https://aclantology.org/2024.findings-eacl.85”,pages=“1278--1294”,抽象=“在许多NLP任务中,对以英语等高资源语言训练的语言模型的跨语言迁移进行了广泛研究,但对会话任务的关注却相当有限。这部分是由于获取非英语会话数据的高成本导致覆盖范围有限。在这项工作中,我们介绍了跨语言迁移的方法语言对齐预处理,这是一个并行的大规模多语种对话数据集,我们通过将纯英语模式引导对话(SGD)数据集(Rastogi等人,2020)翻译成105种其他语言而创建。XSGD每种语言包含大约330k个语句。为了促进对齐的跨语言表示,我们开发了一种高效的基于提示的学习对齐提示的方法。我们还研究了两种不同的分类器:基于NLI的分类器和普通分类器,并测试了对齐提示所支持的跨语言能力。我们在两个会话任务上评估了模型{'}的跨语言泛化能力:时隙填充和意图分类。我们的结果表明,基于NLI的分类器具有强大而高效的建模能力,并且通过对齐提示,特别是在少数快照设置下,实现了跨语言传输的大幅改进。我们还对大型语言模型(LLM)进行了研究,例如在零快照和少快照设置下的text-davinci-003和ChatGPT。虽然LLM在英语方面表现出色,但他们在其他语言,尤其是低资源语言中的跨语言能力有限。",}
<?xml版本=“1.0”编码=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“tu-etal-2024-高效”><标题信息><title>使用快速调节进行会话任务的高效协调跨语言迁移学习</titleInfo><name type=“personal”>李福(Lifu)图<namePart type=“family”>图</namePart><角色>作者</角色></name><name type=“personal”>Jin(金)Qu区<角色>作者</角色></name><name type=“personal”>塞米赫语雅武兹<角色>作者</角色></name><name type=“personal”>Shafiq公司乔蒂<角色>作者</角色></name><name type=“personal”>文浩刘<角色>作者</角色></name><name type=“personal”><namePart type=“given”>菜名</namePart>熊<角色>作者</角色></name><name type=“personal”>英博<namePart type=“given”><namePart type=“family”>周<角色>作者</角色></name><originInfo>2024-03发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会的发现:EACL 2024</titleInfo><name type=“personal”>Yvette(伊维特)格雷厄姆<角色>编辑器</角色></name><name type=“personal”>马修Purver公司<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>马耳他圣朱利安</place></originInfo>会议出版物</relatedItem><abstract>在英语等高资源语言上训练的语言模型的跨语言迁移已被广泛研究用于许多NLP任务,但对会话任务的关注相当有限。这在一定程度上是由于获取非英语会话数据的成本很高,导致覆盖范围有限。在这项工作中,我们为跨语言对齐预处理引入了一个并行的大规模多语言对话数据集,该数据集是我们通过将纯英语模式引导对话(SGD)数据集(Rastogi等人,2020)翻译成105种其他语言而创建的。XSGD每种语言包含大约330k个语句。为了促进对齐的跨语言表示,我们开发了一种高效的基于提示的学习对齐提示的方法。我们还研究了两种不同的分类器:基于NLI的分类器和普通分类器,并测试了对齐提示所支持的跨语言能力。我们在两个会话任务上评估了模型的跨语言泛化能力:时隙填充和意图分类。我们的结果表明,基于NLI的分类器具有强大而高效的建模能力,并且通过对齐提示,特别是在少数快照设置下,实现了跨语言传输的大幅改进。我们还对大型语言模型(LLM)进行了研究,例如在零快照和少快照设置下的text-davinci-003和ChatGPT。虽然LLM在英语方面表现出色,但他们在其他语言,尤其是低资源语言中的跨语言能力有限</摘要>有效地<identifier type=“citekey”>tu-etal-2024<位置><网址>https://aclantology.org/2024.findings-eacl.85</url></位置><部分>2024-03年<扩展单元=“page”><开始>1278</开始>1294年</范围></部分></mods></modsCollection>
%0会议记录%使用快速调整有效协调的跨语言迁移学习用于会话任务%阿图、李甫%金阿曲%A Yavuz,塞米%A Joty,沙菲克%刘文浩%阿雄、蔡明%阿周、英博%伊维特·Y·格雷厄姆%Y Purver,马修%计算语言学协会的研究结果:EACL 2024%D 2024年%3月8日%计算语言学协会%马耳他圣朱利安教堂%F tu-etal-2024高效%X针对英语等高资源语言训练的语言模型的跨语言迁移在许多NLP任务中得到了广泛研究,但对会话任务的关注却相当有限。这部分是由于获取非英语会话数据的成本很高,导致覆盖面有限。在这项工作中,我们为跨语言对齐预处理引入了一个并行的大规模多语言对话数据集,该数据集是我们通过将纯英语模式引导对话(SGD)数据集(Rastogi等人,2020)翻译成105种其他语言而创建的。XSGD每种语言包含大约330k个语句。为了促进对齐的跨语言表示,我们开发了一种高效的基于提示的学习对齐提示的方法。我们还研究了两种不同的分类器:基于NLI的分类器和普通分类器,并测试了对齐提示所支持的跨语言能力。我们在两个会话任务上评估了模型的跨语言泛化能力:时隙填充和意图分类。我们的结果表明,基于NLI的分类器具有强大而高效的建模能力,并且通过对齐提示,特别是在少数快照设置下,实现了跨语言传输的大幅改进。我们还对零镜头和少镜头设置下的大型语言模型(LLM)进行了研究,如text-davinci-003和ChatGPT。尽管LLM在英语方面表现出令人印象深刻的表现,但它们在其他语言,特别是低资源语言中的跨语言能力有限。%U型https://aclantology.org/2024.findings-eacl.85%电话:1278-1294
降价(非正式)
[使用快速调整,针对对话任务进行有效的跨语言迁移学习](https://aclantology.org/2024.findings-eacl.85)(Tu等人,2024年调查结果)
国际计算语言学协会
- 屠立夫、曲金人、赛米·亚武兹、沙菲克·乔蒂、刘文浩、熊才明和周英波。2024使用快速调整的会话任务高效协调跨语言迁移学习.英寸计算语言学协会的研究结果:EACL 2024第1278-1294页,马耳他圣朱利安教堂。计算语言学协会。