@进行中{ikbal-etal-2023-self,title=“自我监督规则学习,将文本片段链接到结构化知识的相关元素”,author=“Ikbal、Shajith和Sharma、Udit和卡拉南、希马和尼拉姆、苏米特和卢斯、罗尼和Sreedhar、Dheeraj和卡帕尼帕蒂、帕凡和Khan、Naweed和欧文、凯尔和Makondo、Ndivhuwo和阿卜杜拉齐兹、易卜拉欣和Fokoue、Achille和格雷、亚历山大和克劳斯、麦克斯韦和Chaudhury、Subhajit和Subramanian,Chitra“,editor=“Bouamor、Houda和皮诺、胡安和巴厘岛,卡利卡”,booktitle=“计算语言学协会的发现:EMNLP 2023”,月=12月,年份=“2023”,address=“新加坡”,publisher=“计算语言学协会”,url=“https://aclantology.org/2023.findings-emnlp.117",doi=“10.18653/v1/2023.findings-emnlp.117”,pages=“1707--1718”,摘要=“我们提出了一种神经符号学方法来处理自学规则,这些规则作为可解释的知识,用于在知识库问答系统中执行关系链接。这些规则将自然语言文本谓词定义为知识库路径的加权混合。在训练中学习的权重有效地服务于执行orm关系链接。我们使用流行的蒙面训练策略来自学规则。我们工作的一个关键区别在于,屏蔽训练操作的是句子的逻辑形式,而不是自然语言文本形式。这提供了从结构化知识源中提取扩展上下文信息的机会,并使用这些信息构建健壮的、人类可读的规则。我们通过使用这些学习规则来预测CLUTRR数据集中缺失的亲属关系以及使用SWQ-WD数据集的KBQA系统中的关系链接,来评估这些学习规则的准确性和有用性。结果证明了我们的方法的有效性——它的可泛化性、可解释性以及在CLUTRR数据集上实现平均性能增益17{\%}的能力。",}
<?xml version=“1.0”encoding=“UTF-8”?><modsCollection xmlns=“http://www.loc.gov/mods/v3"><mods ID=“ikbal-etal-2023-self”><标题信息>自我监督规则学习将文本片段与结构化知识的相关元素联系起来</titleInfo><name type=“personal”>Shajith(沙吉思)伊克巴尔<角色>作者</角色></name><name type=“personal”>Udit(编辑)Sharma(Sharma)<角色>作者</角色></name><name type=“personal”>Hima(Hima)卡拉南<角色>作者</角色></name><name type=“personal”>相加尼拉姆<角色>作者</角色></name><name type=“personal”>罗尼(Ronny)卢斯<角色>作者</角色></name><name type=“personal”>Dheeraj<namePart type=“family”>Sreedhar</namePart><角色>作者</角色></name><name type=“personal”><namePart type=“given”>Pavan卡帕尼帕蒂<角色>作者</角色></name><name type=“personal”>纳威德<namePart type=“given”>Naweed<namePart type=“family”>Khan</namePart>汗</namePart<角色>作者</角色></name><name type=“personal”>凯尔埃尔文<角色>作者</角色></name><name type=“personal”>Ndivhuwo马孔多<角色>作者</角色></name><name type=“personal”>易卜拉欣阿卜杜拉齐兹<角色>作者</角色></name><name type=“personal”>阿基利Fokoue公司<角色>作者</角色></name><name type=“personal”><namePart type=“given”>Alexander</namePart>亚历山大</namePart灰色<角色>作者</角色></name><name type=“personal”>麦克斯韦克罗斯<角色>作者</角色></name><name type=“personal”>子hajit乔杜里<角色>作者</角色></name><name type=“personal”><namePart type=“given”>奇特拉Subramanian系列<角色>作者</角色></name><originInfo>2023-12发布日期</originInfo><typeOfResource>文本<relatedItem type=“主机”><标题信息>计算语言学协会的发现:EMNLP 2023</titleInfo><name type=“personal”>侯达布阿莫尔<角色>编辑器</角色></name><name type=“personal”>胡安皮诺<角色>编辑器</角色></name><name type=“personal”>卡利卡语巴厘岛<角色>编辑器</角色></name><originInfo>计算语言学协会<地点>新加坡</place></originInfo>会议出版物</relatedItem><摘要>我们提出了一种神经符号学方法,用于自学规则,这些规则作为可解释的知识,在知识库问答系统中执行关系链接。这些规则将自然语言文本谓词定义为知识库路径的加权混合。训练期间学习的权重有效地服务于执行关系链接所需的映射。我们使用流行的蒙面训练策略来自学规则。我们工作的一个关键区别在于,屏蔽训练操作的是句子的逻辑形式,而不是自然语言文本形式。这提供了从结构化知识源中提取扩展上下文信息的机会,并使用这些信息构建健壮的、人类可读的规则。我们通过使用这些学习规则来预测CLUTRR数据集中缺失的亲属关系以及使用SWQ-WD数据集的KBQA系统中的关系链接,来评估这些学习规则的准确性和有用性。结果证明了我们的方法的有效性——它的通用性、可解释性以及在CLUTRR数据集上实现17%平均性能增益的能力</摘要><identifier type=“citekey”>ikbal-etal-2023-self</identifier>10.18653/v1/2023.findings-emnlp.117<位置><网址>https://aclantology.org/2023.findings-emnlp.117</url></位置><部分>2023-12年<扩展单元=“page”><开始>1707</开始>1718年</范围></部分></mods></modsCollection>
%0会议记录%将文本片段与结构化知识的关系元素联系起来的自我监督规则学习%A Ikbal,沙吉思%A Sharma,乌迪特%阿卡拉南,希玛%苏米特·奈拉姆%罗尼·A·卢斯%Dheeraj的Sreedhar%卡帕尼帕蒂%纳威德·A Khan%A Erwin,凯尔%A Makondo,Ndivhuwo%易卜拉欣·阿卜杜拉齐兹%阿喀琉·福克%亚历山大·格雷%A Crouse,麦克斯韦%A Chaudhury,Subhajit%苏布拉曼人,奇特拉%Y Bouamor,Houda公司%胡安·皮诺%Y巴厘岛,卡利卡%计算语言学协会的发现:EMNLP 2023%D 2023年%12月8日%I计算语言学协会%C新加坡%F ikbal-etal-2023-self公司%我们提出了一种自学习规则的神经符号学方法,这些规则作为可解释的知识,用于在知识库问答系统中执行关系链接。这些规则将自然语言文本谓词定义为知识库路径的加权混合。训练期间学习的权重有效地服务于执行关系链接所需的映射。我们使用流行的蒙面训练策略来自学规则。我们工作的一个关键区别在于,屏蔽训练操作的是句子的逻辑形式,而不是自然语言文本形式。这提供了从结构化知识源中提取扩展上下文信息的机会,并使用这些信息构建健壮的、人类可读的规则。我们通过使用这些学习规则来预测CLUTRR数据集中缺失的亲属关系以及使用SWQ-WD数据集的KBQA系统中的关系链接,来评估这些学习规则的准确性和有用性。结果证明了我们的方法的有效性——它的通用性、可解释性以及在CLUTRR数据集上实现17%平均性能增益的能力。%R 10.18653/v1/2023,参考文献117%U型https://aclantology.org/2023.findings-emnlp.117%U型https://doi.org/10.18653/v1/2023.findings-emnlp.117%电话:1707-1718
降价(非正式)
[自我监督规则学习,将文本片段与结构化知识的相关元素联系起来](https://aclantology.org/2023.findings-emnlp.117)(Ikbal等人,2023年调查结果)
国际计算语言学协会
- 沙吉斯·伊克巴尔(Shajith Ikbal)、乌迪特·沙尔马(Udit Sharma)、希马·卡拉南(Hima Karanam)、苏米特·内拉姆(Sumit Neelam)、罗尼·卢斯(Ronny Luss)、德拉吉·斯里德哈尔(Dheeraj Sreedhar)、帕万·卡帕尼帕蒂(Pavan Kapanipathi)、纳威德·汗(Naweed Khan)、凯尔·埃尔文(Kyle Erwin)、恩迪夫胡沃·马孔多(Ndivhuwo。2023将文本片段与结构化知识的关系元素联系起来的自我监督规则学习.英寸计算语言学协会的发现:EMNLP 2023,第1707-1718页,新加坡。计算语言学协会。