@正在进行{liu-etal-2022生成,title=“生成常识推理知识提示”,author=“刘嘉诚Liu、Alisa和Lu、Ximing和Welleck、Sean和West、Peter和Le Bras、Ronan和Choi、Yejin和Hajishirzi,Hannaneh“,editor=“Muresan、Smaranda和纳科夫、普雷斯拉夫和Aline Villavicencio“,booktitle=“计算语言学协会第60届年会论文集(第一卷:长篇论文)”,月=5月,年=“2022”,address=“爱尔兰都柏林”,publisher=“计算语言学协会”,url=“https://aclantology.org/2022.acl-long.225”,doi=“10.18653/v1/2022.acl-long.225”,页码=“3154--3169”,摘要=“合并外部知识是否有利于常识推理,同时保持预处理序列模型的灵活性,这仍然是一个悬而未决的问题。为了研究这个问题,我们开发了生成知识提示,它包括从语言模型生成知识,然后提供知识作为附加输入回答问题时。我们的方法不需要对知识集成进行特定任务的监督,也不需要访问结构化的知识库,但它在四个常识推理任务上提高了大规模、最先进模型的性能,在数字常识(NumerSense)、一般常识(CommonsenseQA 2.0)、,和科学常识(QASC)基准。生成的知识提示突出了大规模语言模型作为改进常识推理的外部知识的灵活来源。我们的代码位于\url{github.com/liujch1998/GKP}“,}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“liu-etal-2022-generated”><标题信息>生成的常识推理知识提示</titleInfo><name type=“personal”>嘉诚<namePart type=“given”>刘<角色>作者</角色></name><name type=“personal”>Alisa(Alisa)刘<角色>作者</角色></name><name type=“personal”>西明<namePart type=“family”>Lu</namePart><角色>作者</角色></name><name type=“personal”>肖恩韦勒克<角色>作者</角色></name><name type=“personal”>彼得西部<角色>作者</角色></name><name type=“personal”>Ronan(罗南)Le Bras运动内衣<角色>作者</角色></name><name type=“personal”>叶进(Yejin)Choi<角色>作者</角色></name><name type=“personal”>汉娜娜哈吉什尔齐<角色>作者</角色></name><originInfo><日期发布>2022-05</日期发布></originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会第60届年会会议记录(第1卷:长篇论文)</titleInfo><name type=“personal”>斯马兰达穆雷桑<角色>编辑器</角色></name><name type=“personal”>普雷斯拉夫纳科夫<角色>编辑器</角色></name><name type=“personal”>Aline(别名)<namePart type=“family”>维拉维森西奥</namePart><角色>编辑器</角色></name><originInfo>计算语言学协会<地点>爱尔兰都柏林</place></originInfo>会议出版物</relatedItem>合并外部知识是否有利于常识推理,同时保持预处理序列模型的灵活性,这仍然是一个悬而未决的问题。为了研究这个问题,我们开发了生成知识提示,它包括从语言模型生成知识,然后在回答问题时提供知识作为附加输入。我们的方法不需要对知识集成进行特定任务的监督,也不需要访问结构化的知识库,但它在四个常识推理任务上提高了大规模、最先进模型的性能,在数字常识(NumerSense)、一般常识(CommonsenseQA 2.0)、,和科学常识(QASC)基准。生成的知识提示突出了大规模语言模型作为改进常识推理的外部知识的灵活来源。我们的代码位于github.com/liujch1998/GKP生成的liu-etal-202210.18653/v1/2022.acl-long.225<位置><网址>https://aclantology.org/2022.acl-long.225</url></位置><部分>2022-05年<扩展单元=“page”><开始>3154</开始><end>3169</范围></部分></mods></modsCollection>
%0会议记录%用于常识推理的T生成知识提示%A Liu,嘉诚%A Liu,Alisa阿莉莎%阿鲁、西明%A Welleck,肖恩%A West,彼得%A Le Bras,罗南%叶进·A Choi%哈吉什尔齐,汉纳%Y Muresan,斯马兰达%普雷斯拉夫·纳科夫%Y Villavicencio,阿琳%计算语言学协会第60届年会论文集(第一卷:长篇论文)%D 2022年%5月8日%I计算语言学协会%C都柏林,爱尔兰%F liu-etal-2022生成%X结合外部知识是否有利于常识推理,同时保持预处理序列模型的灵活性,这仍然是一个悬而未决的问题。为了研究这个问题,我们开发了生成的知识提示,它包括从语言模型中生成知识,然后在回答问题时提供知识作为额外的输入。我们的方法不需要对知识集成进行特定任务的监督,也不需要访问结构化的知识库,但它在四个常识推理任务上提高了大规模、最先进模型的性能,在数字常识(NumerSense)、一般常识(CommonsenseQA 2.0)、,和科学常识(QASC)基准。生成的知识提示突出了大规模语言模型作为改进常识推理的外部知识的灵活来源。我们的代码位于github.com/liujch1998/GKP%R 10.18653/v1/2022.acl长225%U型https://aclantology.org/2022.acl-long.225%U型https://doi.org/10.18653/v1/222.cl-long.225%电话:3154-3169
降价(非正式)
[生成常识推理的知识提示](https://aclantology.org/2022.acl-long.225)(刘等人,ACL 2022)
国际计算语言学协会
- 刘嘉诚、刘爱丽莎、卢西明、肖恩·威利克、彼得·韦斯特、罗南·勒布拉斯、蔡叶锦和汉娜妮·哈吉什尔兹。2022常识推理的生成知识提示.英寸计算语言学协会第60届年会论文集(第一卷:长篇论文),第3154–3169页,爱尔兰都柏林。计算语言学协会。