×

通过复张量分解完成知识图。 (英语) Zbl 1435.68323号

摘要:在统计关系学习中,知识图补全处理的是自动理解大型知识图(标记有向图)的结构,并预测缺失的关系(标记边)。最先进的嵌入模型在建模表达性和时间和空间复杂性之间提出了不同的权衡。我们通过使用复值嵌入调和了表达性和复杂性,并探讨了这种复值嵌入和酉对角化之间的联系。我们从理论上证实了我们的方法,并证明了所有实方阵——因此所有可能的关系/邻接矩阵——都是某些酉对角化矩阵的实部。这一结果为方阵分解的许多其他应用打开了大门。我们基于复杂嵌入的方法可以说很简单,因为它只涉及埃尔米特点积,即实向量之间标准点积的复杂对应物,而其他的方法使用越来越复杂的合成函数来增加其表达能力。所提出的复杂嵌入可扩展到大型数据集,因为它在空间和时间上都保持线性,同时在标准链路预测基准上始终优于其他方法。

MSC公司:

68立方英尺 知识表示
15A83号 矩阵完成问题
PDF格式BibTeX公司 XML格式引用
全文: arXiv公司 链接

参考文献:

[1] 诺加·阿龙(Noga Alon)、谢·莫兰(Shay Moran)和埃米尔·耶胡达约夫(Amir Yehudayoff)。符号等级与vc维度。学习理论会议,第47-80页,2016年·Zbl 1521.68106号
[2] Sren Auer、Christian Bizer、Georgi Kobilarov、Jens Lehmann和Zachary Ives。DBpedia:开放数据网络的核心。韩国釜山国际语义网络会议,第11-15页。施普林格,2007年。
[3] 盖伊·巴鲁克。可伸缩三向实张量补全的三元非交换隐因子模型。arXiv预印arXiv:1410.73832014。
[4] 阿德尔·贝鲁奇拉尼(Adel Belouchrani)、卡里姆·阿贝德·梅雷姆(Karim Abed-Meraim)、J-F卡多佐(J-F Cardoso)和埃里克·穆林斯(Eric Moulines)。一种使用二阶统计量的盲源分离技术。IEEE信号处理汇刊,45(2):434-4441997。
[5] 尤金尼奥·贝尔特拉米。Sulle funzioni bilineri。Giornale di Matematiche ad Uso degli Studenti Delle Universita,11(2):98-1061873。
[6] 詹姆斯·伯格斯特拉(James Bergstra)、奥利维尔·布鲁鲁(Olivier Breuleux)、埃里克·巴斯蒂安(Fr’ed’eric Bastien)神父、帕斯卡尔·兰姆林(Pascal Lamblin)、拉兹万·帕斯卡诺(Razvan Pascanu)、纪尧姆·德斯贾丁斯(Guillaume Desjardins)、约瑟夫·。Theano:CPU和GPU数学表达式编译器。2010年6月,Python科学计算会议(SciPy)。33
[7] 斯里纳德·博贾纳帕利(Srindah Bhojanapalli)、贝纳姆·尼沙布尔(Behnam Neyshabur)和内森·斯雷布罗(Nathan Srebro)。低秩矩阵恢复局部搜索的全局最优性。arXiv预印arXiv:1605.072212016。
[8] 库尔特·博拉克(Kurt Bollacker)、科林·埃文斯(Colin Evans)、普拉文·帕里托什(Praveen Paritosh)、蒂姆·斯特奇(Tim Sturge)和杰米·泰勒(Jamie Taylor)。Freebase:一个协作创建的图形数据库,用于构建人类知识。在ACM SIGMOD国际数据管理会议上,第1247-1250页,2008年。
[9] Antoine Bordes、Jason Weston、Ronan Collobert和Yoshua Bengio。学习知识库的结构化嵌入。在2011年AAAI人工智能会议上。
[10] 安托万·博德斯(Antoine Bordes)、尼古拉·乌苏尼尔(Nicolas Usunier)、阿尔贝托·加奇(Alberto Garc´a-Dur´an)、杰森·韦斯顿(Jason Weston)和奥克萨娜·亚赫内科(Oksana Yakhnenko)。作为翻译的不灵活和等级关系。计算研究数据库,abs/1304.7158,2013a。
[11] Antoine Bordes、Nicolas Usunier、Alberto Garcia-Duran、Jason Weston和Oksana Yakhnenko。转换用于建模多关系数据的嵌入。神经信息处理系统进展,第2787-2795页,2013b。
[12] 安托万·博德斯(Antoine Bordes)、泽维尔·格洛特(Xavier Gloot)、杰森·韦斯顿(Jason Weston)和约舒亚·本吉奥(Yoshua Bengio)。用于使用多关系数据进行学习的语义匹配能量函数。机器学习,94(2):233-2592014a·兹比尔1319.68169
[13] Antoine Bordes、Jason Weston和Nicolas Usunier。弱监督嵌入模型的开放式问答。在数据库中的机器学习和知识发现欧洲联合会议上,第165-180页。施普林格,2014年b。
[14] 纪尧姆·布查德(Guillaume Bouchard)、萨米尔·辛格(Sameer Singh)和塞奥·特鲁利隆(Th´eo Trouillon)。低秩向量空间的近似推理能力。2015年,AAAI知识表示和推理春季研讨会:集成符号和神经方法。
[15] 奥古斯丁·路易斯·考西(Augustin-Louis Cauchy)。这是一个“方程式”,它是计划运动的执行过程中的决定。《乌弗莱斯教堂》,伊利埃里,9:174-1951829。
[16] K.W.Chang、W.T.Yih、B.Yang和C.Meek。用于关系提取的知识库的类型化张量分解。2014年,在自然语言处理实证方法会议上。
[17] Drago’s M.Cvetkovi’c、Peter Rowlinson和Slobodan Simic。图的特征空间。66号。剑桥大学出版社,1997年·Zbl 0878.05057号
[18] 理查德·基加尼亚克(Richard Cyganiak)、大卫·伍德(David Wood)和马库斯·兰塔勒(Markus Lanthaler)。Rdf 1.1概念和抽象语法。W3C建议书,2014年。
[19] 伊沃·达尼埃尔卡(Ivo Danihelka)、格雷格·韦恩(Greg Wayne)、贝尼尼奥·尤里亚(Benigno Uria)、纳尔·卡尔克布伦纳(Nal Kalchbrenner)和亚历克斯·格雷夫斯(Alex Graves)。联想性长短期记忆。arXiv预印arXiv:1602.03032016。
[20] 列文·德拉特豪沃(Lieven De Lathauwer)、巴特·德摩尔(Bart De Moor)和乔斯·范德维尔(Joos Vandewalle)。独立分量分析和(同时)三阶张量对角化。IEEE信号处理汇刊,49(10):2262-22712001。34 ·Zbl 1374.94510号
[21] 伍德罗·W·丹汉姆。阿尔雅瓦拉非言语行为模式的检测。西雅图华盛顿大学博士论文。,1973
[22] Xin Dong、Evgeniy Gabrilovich、Geremy Heitz、Wilko Horn、Ni Lao、Kevin Murphy、Thomas Strohmann、Shaohua Sun和Wei Zhang。知识库:一种网络规模的概率知识融合方法。在2014年ACM SIGKDD知识发现和数据挖掘国际会议上,KDD’14,第601-610页。
[23] John Duchi、Elad Hazan和Yoram Singer。在线学习和随机优化的自适应次梯度方法。《机器学习研究杂志》,2011年12月21日至21日·Zbl 1280.68164号
[24] 克里斯蒂安·费尔鲍姆(Christiane Fellbaum)。WordNet。威利在线图书馆,1998年。
[25] 托马斯·弗兰兹(Thomas Franz)、安捷·舒尔茨(Antje Schultz)、谢尔盖·西佐夫(Sergej Sizov)和斯特芬·斯塔布(Steffen Staab)。三级:通过张量分解对语义web数据进行排序。国际语义网络会议,第213-228页,2009年。
[26] 尼尔·弗里德曼(Nir Friedman)、莉斯·盖图(Lise Getoor)、达芙妮·科勒(Daphne Koller)和阿维·普费弗(Avi Pfeffer)。学习概率关系模型。1999年8月,国际人工智能联合会议,第1300-1309页。国际标准图书编号3540422897。doi:10.1.101.3165。
[27] 阿尔贝托·加西亚-杜拉(Alberto Garcia-Duran)、安托万·博德斯(Antoine Bordes)、尼古拉斯·乌苏尼尔(Nicolas Usunier)和伊夫·格兰瓦莱特(Yves Grandvalet)。结合两种和三种嵌入模型在知识库中进行链接预测。《人工智能研究杂志》,55:715-7422016年·Zbl 1352.68237号
[28] Rong Ge、Jason D Lee和Tengyu Ma。矩阵完成没有虚假的局部最小值。arXiv预印arXiv:1605.072722016。
[29] Lise Getoor和Ben Taskar。统计关系学习导论。麻省理工学院出版社,2007年。ISBN 0262072882·Zbl 1141.68054号
[30] Katsuhiko Hayashi和Masashi Shimbo。关于链接预测的全息嵌入和复杂嵌入的等效性。arXiv预印arXiv:1702.055632017。
[31] F.L.希区柯克。张量或多元数作为乘积之和的表达式。数学杂志。物理学,6(1):164-18927。
[32] 罗杰·霍恩和查尔斯·约翰逊。矩阵分析。剑桥大学出版社,2012年·Zbl 0576.15001号
[33] 胡琼(Qiong Hu)、山口俊一(Junichi Yamagishi)、科林·里士满(Korin Richmond)、卡里克·苏布拉曼尼亚(Kartick Subramanian)和亚尼斯·斯泰利安诺(Yannis Stylianou)。基于复值神经网络的语音合成初步研究。2016年IEEE声学、语音和信号处理国际会议,第5630-5634页。
[34] 黄海和刘成飞。概率rdf数据库的查询评估。在Web信息系统工程国际会议上,第307-320页。施普林格,2009年。35
[35] 鲁道夫·杰纳顿、安托万·波德斯、尼古拉斯·勒鲁和纪尧姆·奥博津斯基。高度多相关数据的潜在因素模型。《神经信息处理系统进展》25,第3167-31752012页。
[36] 耶胡达·科伦、罗伯特·贝尔和克里斯·沃林斯基。推荐系统的矩阵分解技术。计算机,42(8):30-372009。
[37] 丹尼斯·克罗帕(Denis Krompa)、马克西米利安·尼克尔(Maximilian Nickel)和沃尔克·特雷普(Volker Tresp)。查询因子化概率三数据库。在2014年国际语义网络会议上,第114-129页。
[38] 约瑟夫·克鲁斯卡尔(Joseph B Kruskal)。3路和n路阵列的秩、分解和唯一性。在多路数据分析中,第7-18页。North-Holland出版公司,1989年。
[39] 杰尔·欧米·库内吉斯(Jéerˆome Kunegis)、格德·格朗纳(Gerd Gr¨oner)和托马斯·戈特朗(Thomas Gottron)。在线约会推荐系统:分裂-复数方法。在ACM RecSys推荐系统和社交网络研讨会上,第37-44页。ACM,2012年。
[40] Nati Linial、Shahar Mendelson、Gideon Schechtman和Adi Shraibman。符号矩阵的复杂性度量。Combinatorica,27(4):439-4632007年·Zbl 1164.68006号
[41] 云茂和劳伦斯·K·索尔。通过矩阵分解对大规模网络中的距离进行建模。在ACM SIGCOMM互联网测量会议上,第278-287页,2004年。
[42] Alexa T McCray。生物医学领域的高级本体。比较与功能基因组学,4(1):80-842003。
[43] 马克西米利安·尼克尔(Maximilian Nickel)、沃尔克·特雷普(Volker Tresp)和汉斯·彼得·克里格尔(Hans-Peter Kriegel)。多关系数据集体学习的三向模型。在2011年国际机器学习会议上,第809-816页。
[44] 马克西米利安·尼克尔(Maximilian Nickel)、姜雪燕(Xueyan Jiang)和沃尔克·特雷普(Volker Tresp)。通过包含可观察的模式来降低关系分解模型中的秩。《神经信息处理系统进展》,第1179-1187页,2014年。
[45] 马克西米利安·尼克尔(Maximilian Nickel)、凯文·墨菲(Kevin Murphy)、沃尔克·特雷普(Volker Tresp)和叶夫根尼·加布里洛维奇(Evgeniy Gabrilovich)。知识图的关系机器学习综述。IEEE会议记录,104(1):11–33,2016a。
[46] 马克西米利安·尼克尔(Maximilian Nickel)、洛伦佐·罗萨斯科(Lorenzo Rosasco)和托马索·波乔(Tomaso A.Poggio)。知识图的全息嵌入。在AAAI人工智能会议,1955-1961页,2016b。
[47] 马蒂亚斯·尼珀特。判别性盖夫曼模型。《神经信息处理系统进展》,第3405-3413页,2016年。
[48] Pentti Paatero和Unto Tapper。正矩阵因式分解:一种非负因子模型,可优化利用数据值的误差估计。环境计量学,5(2):111-1261994。36
[49] Parivash Pirasteh、Dosam Hwang和Jason J Jung。利用矩阵分解来处理推荐系统中不对称的用户相似性。基于知识的系统,83:51-572015年。
[50] 吕克·德·雷德(Luc De Raedt)、克里斯蒂安·科斯廷(Kristian Kersting)、斯里拉姆·纳塔拉扬(Sriram Natarajan)和大卫·普尔(David Poole)。统计关系人工智能:逻辑、概率和计算。《人工智能与机器学习综合讲座》,10(2):2016年1月189日·Zbl 1352.68005号
[51] 马修·理查森和佩德罗·多明戈斯。马尔可夫逻辑网络。机器学习,62(1-2):107-1362006·Zbl 1470.68221号
[52] 塞巴斯蒂安·里德尔(Sebastian Riedel)、利明·姚明(Limin Yao)、安德鲁·麦卡勒姆(Andrew McCallum)和本杰明·马林(Benjamin M.Marlin)。使用矩阵分解和通用模式进行关系提取。《人类语言技术:计算语言学协会北美分会会议》,第74-84页,2013年。
[53] T Rocktaschel、S Singh和S Riedel。将逻辑背景知识注入嵌入以进行关系提取。计算语言学协会北美分会会议,第1119-1129页,2015年。
[54] Youcef Saad。大型特征值问题的数值方法,第158卷。SIAM,1992年·Zbl 0991.65039号
[55] Satya S Sahoo、Wolfgang Halb、Sebastian Hellmann、Kingsley Idhen、Ted Thibodeau Jr、S¨oren Auer、Juan Sequeda和Ahmed Ezzat。对当前将关系数据库映射到rdf的方法的调查。W3C RDB2RDF孵化器小组报告,第113-130页,2009年。
[56] Richard Socher、Danqi Chen、Christopher D Manning和Andrew Ng。用神经张量网络进行推理以完成知识库。《神经信息处理系统进展》,第926-934页,2013年。
[57] 彼得·斯托伊卡(Petre Stoica)和伦道夫·摩西(Randolph L Moses)。信号光谱分析,第452卷。Pearson Prentice Hall Upper Saddle River,新泽西州,2005年·Zbl 1051.62522号
[58] 伊利亚·萨茨克弗(Ilya Sutskever)。使用贝叶斯聚类张量因子分解对关系数据建模。《神经信息处理系统进展》,第1-8页,2009年。
[59] 克里斯蒂娜·图塔诺娃(Kristina Toutanova)、帕特里克·潘特尔(Patrick Pantel)和迈克尔·加蒙(Michael Gamon)。表示文本以联合嵌入文本和知识库。在自然语言处理实证方法会议上,2015年。
[60] Th´eo Trouillon和Maximilian Nickel。知识图的复杂嵌入和全息嵌入:比较。2017年统计关系人工智能国际研讨会。
[61] Th´eo Trouillon、Johannes Welbl、Sebastian Riedel、Eric Gaussier和Guillaume Bouchard。简单链接预测的复杂嵌入。在2016年国际机器学习会议上,第48卷,第2071-2080页。
[62] 约翰·冯·诺伊曼(John von Neumann)。函数运算的Zur代数和正规运算的理论。Mathematische Annalen,102:370-4271929年。37
[63] 约翰内斯·韦尔布尔(Johannes Welbl)、纪尧姆·布查德(Guillaume Bouchard)和塞巴斯蒂安·里德尔(Sebastian Riedel)。一种用于在知识库补全中测试二元嵌入的因子分解机框架。自动化知识库构建研讨会AKBC@NAACL-HLT,第103-107页,2016年。
[64] 谢峰,陈震,尚嘉兴,冯小平,李军。一种用于复数项目推荐的链接预测方法。基于知识的系统,81:148-1582015。
[65] 杨碧珊、叶文涛、何晓东、高剑锋和李登。在知识库中嵌入用于学习和推理的实体和关系。在2015年国际学习代表大会上。
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。