@喂养中{adolphs-etal-2023-皱缩,title=“{CRINGE}损失:学习不建模的语言”,author=“阿道夫、伦纳德和高、天宇和Xu、Jing和舒斯特、库尔特和苏赫巴托、桑巴亚尔和杰森·韦斯顿“,editor=“罗杰斯、安娜和Boyd-Graber、Jordan和冈崎、直崎“,booktitle=“计算语言学协会第61届年会会议记录(第1卷:长篇论文)”,月=七月,年=“2023”,address=“加拿大多伦多”,publisher=“计算语言学协会”,url=“https://aclcollectory.org/2023.acl-long.493”,doi=“10.18653/v1/2023.acl-long.493”,页码=“8854-8874”,abstract=“标准语言模型训练使用黄金人类文档或人机交互数据,并将所有训练数据视为正面示例。越来越多的证据表明,即使有非常大量的正面训练数据,仍然存在可以通过相对少量的负面数据来缓解的问题{-}模型不应该做什么的例子。在这项工作中,我们提出了一种新的程序来训练这种数据,称为{`}CRINGE{''}损失(ContRastive Iterative Negative GEGeneration)。我们通过三个不同的实验证明了该方法在安全生成、避免矛盾和开放域对话任务中的有效性。我们的模型优于多个强大的基线,概念简单,易于训练和实现。”,}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“adolphs-etal-2023-cringe”><标题信息>《疯狂的失落》:学习不该模仿的语言</titleInfo><name type=“personal”>伦纳德Adolphs<角色>作者</角色></name><name type=“personal”>天宇<namePart type=“given”>高<namePart type=“family”><角色>作者</角色></name><name type=“personal”>京<namePart type=“family”>徐</namePart><角色>作者</角色></name><name type=“personal”>库尔特舒斯特<角色>作者</角色></name><name type=“personal”>赛恩巴亚尔苏赫巴托<角色>作者</角色></name><name type=“personal”>杰森威斯顿<角色>作者</角色></name><originInfo>发布日期:2023-07发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会第61届年会会议记录(第1卷:长篇论文)</titleInfo><name type=“personal”>安娜罗杰斯<角色>编辑器</角色></name><name type=“personal”>约旦博伊德·格雷伯<角色>编辑器</角色></name><name type=“personal”><namePart type=“given”>直木</namePart>冈崎<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>加拿大多伦多</地点></originInfo>会议出版物</relatedItem>标准语言模型训练使用黄金人类文档或人机交互数据,并将所有训练数据视为正面示例。越来越多的证据表明,即使有非常大量的积极训练数据,问题仍然存在,可以通过相对少量的消极数据来缓解,这些数据是模型不应该做的示例。在这项工作中,我们提出了一种用这种数据进行训练的新程序,称为“CRINGE”损失(连续迭代负生成)。我们通过三个不同的实验证明了该方法在安全生成、避免矛盾和开放域对话任务中的有效性。我们的模型优于多个强大的基线,概念简单,易于训练和实现</摘要>adolphs-etal-2023-皱缩10.18653/v1/2023.acl-long.493<位置><网址>https://aclantology.org/2023.acl-long.493</url></位置><部分>2023-07年<扩展单元=“page”><开始>8854</开始><end>8874</范围></部分></mods></modsCollection>
%0会议记录%T疯狂的失落:学习不应该模仿的语言%阿道夫,伦纳德%天宇阿高%阿旭、京%A Shuster,库尔特%A Sukhbaatar,桑巴亚尔%杰森·A·韦斯顿%安娜·罗杰斯%Y Boyd-Graber,约旦%Y冈崎,直崎%计算语言学协会第61届年会论文集(第一卷:长篇论文)%D 2023年%7月8日%计算语言学协会%C加拿大多伦多%青少年-etal-2023-环%X标准语言模型训练使用黄金人类文档或人机交互数据,并将所有训练数据视为正面示例。越来越多的证据表明,即使有大量的正训练数据,问题仍然存在,可以通过相对少量的负数据来缓解,这些数据是模型不应该做的事情的例子。在这项工作中,我们提出了一种新的程序来使用这些数据进行训练,称为“CRINGE”损失(ContRastive迭代负生成)。我们通过三个不同的实验证明了该方法在安全生成、避免矛盾和开放域对话任务中的有效性。我们的模型优于多个强大的基线,概念简单,易于训练和实现。%R 10.18653/v1/2023.acl长493%U型https://aclantology.org/2023.acl-long.493%U型https://doi.org/10.18653/v1/2023.acl-long.493%电话:8854-8874
降价(非正式)
[疯狂的失落:学习不应该模仿的语言](https://aclantology.org/2023.acl-long.493)(Adolphs等人,ACL 2023)
国际计算语言学协会
- 莱昂纳德·阿道夫(Leonard Adolphs)、高天宇(Tianyu Gao)、徐静(Jing Xu)、库尔特·舒斯特(Kurt Shuster)、桑巴亚尔·苏赫巴托(Sainbayar Sukhbaatar)和杰森·韦斯顿(Jason Weston)。2023危机的失落:学习不应该模仿的语言.英寸计算语言学协会第61届年会论文集(第一卷:长篇论文),第8854–8874页,加拿大多伦多。计算语言学协会。