@进行中{cui-etal-2023失效,title=“在Zero/Few-Shot设置中分别使用{`}和{''}进行推理的失败告诉我们关于语言模型的什么?”,author=“崔瑞祥Lee、Seolhwa和赫什科维奇、丹尼尔和S{\o}gaard,Anders“,editor=“罗杰斯、安娜和Boyd-Graber、Jordan和冈崎、直崎“,booktitle=“计算语言学协会第61届年会会议记录(第1卷:长篇论文)”,月=七月,年=“2023”,address=“加拿大多伦多”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.acl-long.489”,doi=“10.18653/v1/2023.acl-long.489”,pages=“8786--8800”,abstract=“人类可以毫不费力地理解句子的并列结构,例如{``}尼尔斯·玻尔(Niels Bohr)和科特·科本(Kurt Cobain)分别出生于哥本哈根和西雅图。在自然语言推理(NLI)的背景下,我们考察了语言模型(LMs)如何根据各自的阅读进行推理(Gawron和Kehler,2004)从两个角度:句法语义知识和常识世界知识。我们提出了一个受控合成数据集WikiResNLI和一个自然发生的数据集NatResNLI,分别包含{`}的各种显式和隐式实现。我们发现,在没有明确监督的情况下,微调的NLI模型很难理解这些读数。虽然在有明确线索的情况下很容易进行快速学习,但当阅读被隐式激发时,需要更长的训练,让模型依赖常识推理。此外,我们的细粒度分析表明,模型无法在不同的结构中进行概括。总之,我们证明LM在概括语言结构的长尾方面仍然落后于人类。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“cui-etal-2023-故障”><标题信息><title>在Zero/Few-Shot设置中使用“各自”进行推理的失败告诉了我们关于语言模型的什么</标题></titleInfo><name type=“personal”>瑞祥<namePart type=“given”>崔<namePart type=“family”><角色>作者</角色></name><name type=“personal”>Seolhwa李<namePart type=“family”><角色>作者</角色></name><name type=“personal”>丹尼尔赫什科维奇<角色>作者</角色></name><name type=“personal”>安德斯瑟加德<角色>作者</角色></name><originInfo>发布日期:2023-07发布日期:</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会第61届年会会议记录(第1卷:长篇论文)</titleInfo><name type=“personal”>安娜罗杰斯<角色>编辑器</角色></name><name type=“personal”>约旦博伊德·格雷伯<角色>编辑器</角色></name><name type=“personal”>Naoaki(Naoaki)冈崎<角色>编辑器</角色></name><originInfo>计算语言学协会<位置>加拿大多伦多</place></originInfo><type-authority=“marcgt”>会议出版物</type></relatedItem>人类可以毫不费力地理解句子的并列结构,例如“尼尔斯·玻尔和科特·科本分别出生于哥本哈根和西雅图”。在自然语言推理(NLI)的背景下,我们从句法语义知识和常识世界知识两个角度考察了语言模型(LM)如何与各自的阅读进行推理(Gawron和Kehler,2004)。我们提出了一个受控的合成数据集WikiResNLI和一个自然发生的数据集NatResNLI,以包含“分别”的各种显式和隐式实现。我们表明,在没有明确监督的情况下,微调NLI模型难以理解此类读数。虽然在有明确线索的情况下很容易进行快速学习,但当阅读被隐式激发时,需要更长的训练,让模型依赖常识推理。此外,我们的细粒度分析表明,模型无法在不同的结构中进行概括。总之,我们证明LM在概括语言结构的长尾方面仍然落后于人类</摘要>cui-etal-2023故障10.18653/v1/2023.acl-long.489<位置><网址>https://aclantology.org/2023.acl-long.489</url></位置><部分>2023-07年<扩展单元=“page”><开始>8786<end>8800</范围></部分></mods></modsCollection>
%0会议记录%T在零/少快照设置中用“各自”进行推理的失败告诉了我们关于语言模型的什么?%阿翠、瑞香%A Lee,Seolhwa先生%丹尼尔·赫什科维奇%安德斯·索加德%安娜·罗杰斯%Y Boyd-Graber,约旦%Y冈崎,直崎%计算语言学协会第61届年会论文集(第一卷:长篇论文)%D 2023年%7月8日%计算语言学协会%C加拿大多伦多%F cui-etal-2023故障%X人类可以毫不费力地理解句子的并列结构,例如“尼尔斯·玻尔和科特·科本分别出生于哥本哈根和西雅图”。在自然语言推理(NLI)的背景下,我们从句法语义知识和常识世界知识两个角度考察了语言模型(LM)如何与各自的阅读进行推理(Gawron和Kehler,2004)。我们提出了一个受控的合成数据集WikiResNLI和一个自然发生的数据集NatResNLI,以包含“分别”的各种显式和隐式实现。我们发现,在没有明确监督的情况下,微调的NLI模型很难理解这些读数。虽然在有明确线索的情况下很容易进行快速学习,但当阅读被隐式激发时,需要更长的训练,让模型依赖常识推理。此外,我们的细粒度分析表明,模型无法在不同的结构中进行概括。总之,我们证明LM在概括语言结构的长尾方面仍然落后于人类。%R 10.18653/v1/2023.acl长489%U型https://aclantology.org/2023.acl-long.489%U型https://doi.org/10.18653/v1/2023.acl-long.489%电话:8786-8800
降价(非正式)
[在零/极少数快照设置中,无法用“各自”进行推理告诉我们关于语言模型的什么?](https://aclantology.org/2023.acl-long.489)(Cui等人,ACL 2023)
国际计算语言学协会