跳到主要内容
研究论文

一种用于多跳知识库问答的动态图扩展网络

出版:2023年1月1日 出版历史
  • 获取引文提醒
  • 摘要

    知识库问答旨在通过知识库回答问题。多跳知识库问答是一项具有挑战性的任务,因为它需要根据问题进行多步骤推理才能得到答案。现有模型通过静态子图推断答案,或通过中间信号处理问题的不同部分。前者获得的语义信息有限,而后者由于监督信号较弱而提供的推理有限。本文通过动态扩展子图来消除静态子图推理的局限性,将问题和子图连接起来,形成联合子图。然后,我们调整动态子图以在每个步骤中进行推理。具体来说,在每个步骤中,问题连接不同的子图,在关注问题的特定部分的同时尊重上下文,生成强大的中间信号,作用于随后的推理,最终获得正确的答案。在三个数据集上的大量实验表明,我们的方法比以前的最新模型性能更好。

    工具书类

    [1]
    A.Bordes,S.Chopra,J.Weston,子图嵌入问答,arXiv预印本arXiv:140.6.3676。
    [2]
    M.Yu,W.Yin,K.S.Hasan,C.d.Santos,B.Xiang,B.Zhou,用于知识库问题回答的改进神经关系检测,arXiv预印本arXiv:1704.06194。
    [3]
    Y.Chen,L.Wu,M.J.Zaki,基于知识库的双向注意记忆网络,arXiv预印本arXiv:1903.02188。
    [4]
    Y.Lan,S.Wang,J.Jiang,基于匹配聚合模型和特定问题上下文关系的知识库问答,IEEE/ACM传输。音频语音语言处理。27 (10) (2019) 1629–1638.
    [5]
    L.Dong,F.Wei,M.Zhou,K.Xu,用多列卷积神经网络对自由基进行问答,收录于:计算语言学协会第53届年会和第7届国际自然语言处理联合会议论文集(第1卷:长篇论文),2015年,第260-269页。
    [6]
    Yih W.-T.,Chang M.-W.,X.He,J.Gao,通过分阶段查询图生成进行语义分析:基于知识库的问题回答,收录于:计算语言学协会第53届年会和第七届国际自然语言处理联合会议论文集(第1卷:长篇论文),计算语言学协会,中国北京,2015年,第1321–1331页。网址:https://aclantology.org/P15-1128.
    [7]
    W.-T.Yih,M.Richardson,C.Meek,M.-W.Chang,J.Suh,《语义解析标记在知识库问答中的价值》,载《计算语言学协会第54届年会论文集》(第2卷:短文),2016年,第201–206页。
    [8]
    C.Liang,J.Berant,Q.Le,K.D.Forbus,N.Lao,神经符号机:在自由基上学习语义解析器,弱监督,arXiv预印本arXiv:1611.00020。
    [9]
    H.Sun,B.Dhingra,M.Zaheer,K.Mazaitis,R.Salakhutdinov,W.W.Cohen,利用知识库和文本的早期融合进行开放域问答,arXiv预印本arXiv:1809.00782。
    [10]
    Y.Chen,H.Li,Y.Hua,G.Qi,基于查询结构预测的知识库复杂问答形式查询构建,arXiv预印本arXiv:2109.03614。
    [11]
    J.Han、B.Cheng、X.Wang、,基于两阶段超图的多跳kbqa动态关系推理IJCAI,2020年,第3615–3621页。
    [12]
    Y.Lan,S.Wang,J.Jiang,用迭代序列匹配模型回答多跳知识库问题,in:2019年IEEE国际数据挖掘会议(ICDM)IEEE,2019年,第359-368页。
    [13]
    Y.Zhang,H.Dai,Z.Kozareva,A.J.Smola,L.Song,基于知识图的变分推理答疑,载于:第三十二届AAAI人工智能会议,2018年。
    [14]
    D.Dua,S.Singh,M.Gardner,中间注释在阅读理解中的益处,摘自:《计算语言学协会第58届年会论文集》,2020年,第5627-5634页。
    [15]
    R.Das、S.Dhuliawala、M.Zaheer、L.Vilnis、I.Durugkar、A.Krishnamurthy、A.Smola、A.McCallum,走走得出答案:使用强化学习推理知识库中的路径,arXiv预印本arXiv:1711.05851。
    [16]
    X.V.Lin,R.Socher,C.Xiong,带报酬成形的多跳知识图推理,arXiv预印本arXiv:1808.10568。
    [17]
    邱勇,王勇,金欣,张凯,弱监督下知识图上多关系问答的逐步推理,载《第十三届网络搜索与数据挖掘国际会议论文集》,2020年,第474-482页。
    [18]
    G.He,Y.Lan,J.Jiang,W.X.Zhao,J.R.Wen,通过学习中间监督信号改进多跳知识库问答,载于《第十四届ACM网络搜索和数据挖掘国际会议论文集》,2021年,第553-561页。
    [19]
    J.Shi,S.Cao,L.Hou,J.Li,H.Zhang,Transfernet:关系图上多跳问答的有效透明框架,arXiv预印本arXiv:2104.07302。
    [20]
    A.Talmor,J.Berant,《网络作为回答复杂问题的知识库》,arXiv预印本arXiv:1803.06643。
    [21]
    J.Berant,A.Chou,R.Frostig,P.Liang,基于问答对的自由基语义分析,摘自:2013年自然语言处理实证方法会议论文集,2013年,第1533-1544页。
    [22]
    Lan Y.、Jiang J,从知识库中生成用于回答多跳复杂问题的查询图计算语言学协会,2020年。
    [23]
    A.Miller,A.Fisch,J.Dodge,A.-H.Karimi,A.Bordes,J.Weston,直接读取文档的键值存储网络,arXiv预印本arXiv:1606.03126。
    [24]
    H.Sun,T.Bedrax-Weiss,W.W.Cohen,Pulnet:基于知识库和文本的迭代检索的开放域问答,arXiv预印本arXiv:1904.09537。
    [25]
    K.Xu,S.Reddy,Y.Feng,S.Huang,D.Zhao,基于关系提取和文本证据的自由基问答,arXiv预印本arXiv:1603.00957。
    [26]
    T.N.Kipf,M.Welling,图卷积网络半监督分类,arXiv预印本arXiv:1609.02907。
    [27]
    A.Saxena、A.Tripathi、P.Talukdar,《使用知识库嵌入改进知识图上的多跳问答》,载于:《计算语言学协会第58届年会论文集》,2020年,第4498–4507页。
    [28]
    W.Jin,H.Yu,X.Tao,R.Yin,通过引入关系链推理改进嵌入式知识图多跳问答,CoRR abs/2110.12679。arXiv:2110.12679。网址:https://arxiv.org/abs/2110.12679。
    [29]
    G.Hinton,O.Vinyals,J.Dean,《在神经网络中提取知识》,arXiv预印本arXiv:153.02531。
    [30]
    T.Furlanello、Z.Lipton、M.Tschannen、L.Itti、A.Anandkumar,《再生神经网络》,载:机器学习国际会议PMLR,2018年,第1607–1616页。
    [31]
    Y.Zhang,T.Xiang,T.M.Hospedales,H.Lu,深度相互学习,摘自:IEEE计算机视觉和模式识别会议记录,2018年,第4320–4328页。
    [32]
    Z.Yang,L.Shou,M.Gong,W.Lin,D.Jiang,网络问答系统中基于两阶段多教师知识提取的模型压缩,载《第十三届网络搜索与数据挖掘国际会议论文集》,2020年,第690-698页。
    [33]
    T.Do,T.-T.Do,H.Tran,E.Tjiputra,Q.D.Tran,视觉问答的紧凑三线性交互,收录于:IEEE/CVF国际计算机视觉会议论文集,2019年,第392-401页。
    [34]
    M.Hu,Y.Peng,F.Wei,Z.Huang,D.Li,N.Yang,M.Zhou,用于机器阅读理解的注意引导答案提取,arXiv预印本arXiv:1808.07644。
    [35]
    D.A.Hudson,C.D.Manning,《通过抽象学习:神经状态机》,arXiv预印本arXiv:1907.03950。
    [36]
    M.Yasunaga,H.Ren,A.Bosselut,P.Liang,J.Leskovec,Qa-gnn:用语言模型和知识图进行推理,arXiv预印本arXiv:2104.06378。
    [37]
    L.Qiu,Y.Xiao,Y.Qu,H.Zhou,L.Li,W.Zhang,Y.Y.Yu,用于多跳推理的动态融合图网络,载于:计算语言学协会第57届年会论文集,2019年,第6140–6150页。
    [38]
    Y.Fang,S.Sun,Z.Gan,R.Pillai,S.Wang,J.Liu,多跳问答的层次图网络,arXiv预印本arXiv:1911.03631。
    [39]
    孙寅,石庆庆,齐立群,张彦,Jointlk:用语言模型和知识图进行联合推理,用于常识性问题回答,CoRR abs/2112.02732。arXiv:2112.02732。
    [40]
    J.Pennington,R.Socher,C.D.Manning,《Glove:单词表征的全球向量》,摘自:《2014年自然语言处理经验方法会议论文集》(EMNLP),2014年,第1532-1543页。
    [41]
    S.Hochreiter、J.Schmidhuber,《长期短期记忆》,神经计算。9 (8) (1997) 1735–1780.
    [42]
    S.Kullback,R.A.Leibler,《信息与充分性》,安。数学。斯达。22 (1) (1951) 79–86.
    [43]
    A.Bordes,N.Usunier,A.Garcia-Duran,J.Weston,O.Yakhnenko,为多关系数据建模翻译嵌入,神经信息处理系统进展26。
    [44]
    T.Trouillon、J.Welbl、S.Riedel等。Gaussier,G.Bouchard,《简单链接预测的复杂嵌入》,载于:机器学习国际会议,PMLR,2016年,第2071–2080页。
    [45]
    Y.Liu,M.Ott,N.Goyal,J.Du,M.Joshi,D.Chen,O.Levy,M.Lewis,L.Zettlemoyer,V.Stoyanov,Roberta:一种稳健优化的伯特预训练方法,arXiv预印本arXiv:1907.11692。
    [46]
    J.Zhang、X.Zhang,J.Yu,J.Tang,J.Tong,C.Li,H.Chen,多跳知识库问答子图检索增强模型,收录于:计算语言学协会第60届年会论文集(第1卷:长篇论文),计算语言学协会,2022年。

    引用人

    查看全部

    索引术语

    1. 用于多跳知识库问答的动态图扩展网络
          索引项已通过自动分类分配给内容。

          建议

          评论

          信息和贡献者

          问询处

          发布于

          封面图像神经计算
          神经计算 第515卷C期
          2023年1月
          203页
          ISSN公司:0925-2312
          期刊目录

          出版商

          爱思唯尔科学出版社。

          荷兰

          出版历史

          出版:2023年1月1日

          作者标记

          1. 知识库问答
          2. 动态子图推理
          3. 加强中间监管信号

          限定符

          • 研究文章

          贡献者

          其他指标

          文献计量学和引文

          文献计量学

          文章指标

          • 下载量(最近12个月)0
          • 下载次数(最近6周)0

          其他指标

          引文

          引用人

          查看全部

          视图选项

          查看选项

          获取访问权限

          登录选项

          完全访问权限

          媒体

          数字

          其他

          桌子

          分享

          分享

          共享此出版物链接

          在社交媒体上分享