阿尔贝托·朗布雷拉斯;路易斯·菲尔斯特罗夫;塞德里克·费沃特 贝叶斯平均参数非负二元矩阵分解。 (英语) Zbl 1460.62037号 数据最小知识。发现。 34,第6期,1898-1935(2020). 摘要:二进制数据矩阵可以表示多种类型的数据,如社交网络、投票或基因表达。在某些情况下,二进制矩阵的分析可以用非负矩阵分解(NMF)来处理,其中观测数据矩阵由两个较小的非负矩阵的乘积来近似。在这种情况下,概率NMF假设数据通常是伯努利分布的生成模型。通常,使用链接函数将因子分解映射到\([0,1]\)范围,以确保贝努利平均值参数有效。然而,链接功能有可能导致无法解释的模型。相反,平均参数化NMF克服了这个问题。我们提出了贝叶斯平均参数非负二元矩阵分解模型(NBMF)的统一框架。我们分析了三个模型,这三个模型对应于三个可能的约束,这些约束尊重平均参数化,而不需要链接函数。此外,我们还导出了一种新的折叠吉布斯采样器和折叠变分算法来推断因子的后验分布。接下来,我们将所提出的模型扩展到非参数设置,其中使用的潜在维度的数量由观测数据自动驱动。我们分析了NBMF方法在多个数据集中针对不同任务的性能,例如字典学习和缺失数据预测。实验表明,我们的方法在自动检测相关组件数量的同时,提供了与现有技术相似或更好的结果。 引用于2文件 MSC公司: 2015年1月62日 贝叶斯推断 15A23型 矩阵的因式分解 60对20 随机矩阵(概率方面) 关键词:矩阵分解;潜在变量模型;贝叶斯推断;二进制数据 软件:低等级模型;对;皮格尔姆 PDF格式BibTeX公司 XML格式引用 \textit{A.Lumberas}等人,Data Min.Knowl。发现。34,第6号,1898--1935(2020;Zbl 1460.62037) 全文: 内政部 arXiv公司 哈尔 参考文献: [1] Aldous DJ(1985)交换性和相关主题。《圣弗洛尔概率论》,第XIII-1983卷,第1117页。数学课堂讲稿。柏林施普林格,第1-198页·Zbl 0562.60042号 [2] 阿尔基尔,P。;Guedj,B.,拟贝叶斯非负矩阵因式分解的预言不等式,数学方法统计,26,1,55-67(2017)·Zbl 1381.62222号 [3] 安德森,JR,《人类分类的适应性本质》,《心理学评论》,98,409-429(1991) [4] Asuncion A,Welling M,Smyth P,Teh YW(2009)关于主题模型的平滑和推理。摘自:第25届人工智能不确定性会议记录(UAI'09),第27-34页 [5] 宾厄姆,E。;卡班,A。;Fortelius,M.,The aspect Bernoulli model:multiple causes of presences and leasinces,Pattern Anal Appl,12,1,55-78(2009年)·Zbl 1422.68204号 [6] 布莱,DM;Ng、AY;乔丹,密歇根州,潜在迪里克莱分配,J Mach Learn Res,1993-1022年1月3日(2003)·Zbl 1112.68379号 [7] 丁炔,WL;Jakulin,A.,离散组件分析,Lect Notes Compute Sci Springer,3940,1-33(2006) [8] Canny J(2004)GaP:离散数据的因子模型。摘自:第27届ACM SIGIR信息检索研究与开发国际年会会议记录(SIGIR’04),第122-129页 [9] Jo apan G、Akbayrak S、Ceritli TY、Cemgil AT(2018)和条件泊松因子分解。摘自:第14届潜在变量分析和信号分离国际会议记录(LVA/ICA’18),第24-35页 [10] Celma,O.,《音乐推荐与长尾发现》(2010),柏林:斯普林格,柏林 [11] Cemgil,AT,非负矩阵分解模型的贝叶斯推断,计算智能神经科学,2009,1-17(2009) [12] Cichocki,A。;Lee,H。;Kim,YD;Choi,S.,带α发散的非负矩阵分解,模式识别快报,29,9,1433-1440(2008) [13] Collins M,Dasgupta S,Schapire RE(2002),主成分分析对指数族的推广。摘自:《神经信息处理系统的进展》14,麻省理工学院出版社,第617-624页 [14] Févotte,C。;Idier,J.,具有\(\β\)-散度的非负矩阵分解算法,神经计算,23,92421-2456(2011)·Zbl 1231.65072号 [15] 戈帕兰,P。;FJR鲁伊斯;Ranganath,R。;Blei,DM,推荐系统的贝叶斯非参数泊松因子分解,J Mach Learn Res,33,275-283(2014) [16] Gopalan P、Hofman JM、Blei DM(2015)《分层泊松因子分解的可扩展建议》。摘自:第31届人工智能不确定性会议记录(UAI’15),第326-335页 [17] 何X,廖L,张H,聂L,胡X,蔡TS(2017)神经协同过滤。摘自:《第26届万维网国际会议论文集》(WWW’17),国际万维网会议指导委员会,第173-182页 [18] Hernandez-Lobato JM,Houlsby N,Ghahramani Z(2014)二元矩阵可扩展概率建模的随机推断。摘自:第31届机器学习国际会议(ICML’14)会议记录32:1-6 [19] Hoffman MD、Blei DM、Cook PR(2010)录制音乐的贝叶斯非参数矩阵分解。摘自:第27届国际机器学习会议(ICML’10)会议记录,第439-446页 [20] 医学博士霍夫曼;布莱,DM;王,C。;佩斯利,J.,《随机变分推断》,J Mach Learn Res,14,1,1303-1347(2013)·Zbl 1317.68163号 [21] Hofmann T(1999)概率潜在语义分析。在:第15届人工智能不确定性会议记录(UAI'99),第289-296页 [22] 石黑浩,K。;佐藤,I。;Ueda,N.,平均坍塌变分贝叶斯推断,J Mach Learn Res,18,1,1-29(2017)·Zbl 1437.62125号 [23] 卡班,A。;Bingham,E.,0-1数据的因子分解和去噪:变分方法,神经计算,71,10-12,2291-2308(2008) [24] Kemp C、Tenenbaum JB、Griffiths TL、Yamada T、Ueda N(2006)《具有无限关系模型的概念学习系统》。摘自:《第21届全国人工智能会议论文集》(AAAI'06),第381-388页 [25] Landgraf AJ,Lee Y(2015)通过自然参数投影对二进制数据进行降维。俄亥俄州立大学统计系技术代表890·Zbl 1450.62069号 [26] Larsen JS,Clemmensen LKH(2015)二进制数据的非负矩阵分解。摘自:第七届知识发现、知识工程和知识管理国际联席会议记录(IC3K’15),第555-563页 [27] Lee,DD;Seung,HS,使用非负矩阵分解学习对象的部分,《自然》,401788-791(1999)·兹比尔1369.68285 [28] Lee,DD;Seung,HS,非负矩阵分解算法,Adv Neural Inf Process Syst,13556-562(2001) [29] Liu,JS,贝叶斯计算中的坍塌吉布斯采样器及其在基因调控问题中的应用,美国统计协会杂志,89,427,958-966(1994)·Zbl 0804.62033号 [30] Meeds E,Ghahramani Z,Neal RM,Roweis ST(2007)使用二进制潜在因素建模二元数据。摘自:《神经信息处理系统的进展》19,麻省理工学院出版社,第977-984页 [31] Miettinen,P。;Mielikäinen,T。;Gionis,A。;达斯,G。;Mannila,H.,离散基问题,IEEE Trans Knowl Data Eng,20,10,1348-1362(2008) [32] NOW(2018)NOW社区。新旧世界哺乳动物化石数据库(NOW)。http://www.helsinki.fi/science/现在/,版本030717,2018年5月检索 [33] Pitman J(2002)组合随机过程。柏林斯普林格数学课堂讲稿,圣弗洛尔第32届概率论暑期学校讲座·Zbl 1103.60004号 [34] Polson,NG;斯科特,JG;Windle,J.,使用Polya-Gamma潜在变量对逻辑模型进行贝叶斯推断,美国统计协会,1081339-1349(2013)·Zbl 1283.62055号 [35] R核心团队(2017)R:统计计算的语言和环境。R统计计算基金会。https://www.R-project.org/ [36] Rukat T、Holmes CC、Titsias MK、Yau C(2017)贝叶斯布尔矩阵因式分解。摘自:第34届机器学习国际会议记录(ICML’17),第2969-2978页 [37] 医学博士Sammel;莱恩,LM;Legler,JM,混合离散和连续结果的潜在变量模型,J R Stat Soc Ser B(Methodol),59,3,667-678(1997)·Zbl 0889.62043号 [38] Schein AI,Saul LK,Ungar LH(2003)二进制数据主成分分析的广义线性模型。在:第9届人工智能与统计研讨会论文集(AISTATS’03),第14-21页 [39] Schmidt MN,Winther O,Hansen LK(2009)贝叶斯非负矩阵因式分解。摘自:第八届独立成分分析和信号分离国际会议记录(ICA'09),第540-547页 [40] Singh AP,Gordon GJ(2008)矩阵分解模型的统一观点。摘自:欧洲数据库机器学习和知识发现会议记录(ECML-PKDD’08),第358-373页 [41] Slawski M,Hein M,Lutsik P(2013)二元成分矩阵分解。主题:神经信息处理系统进展26,Curran Associates,Inc.,pp 3210-3218 [42] Sörensen,T.,《基于物种相似性在植物社会学中建立等幅群的方法及其在丹麦公地植被分析中的应用》,Biologiske Skrifter,5,1-34(1948) [43] Steck H,Jaakkola TS(2003)关于狄利克雷先验和贝叶斯正则化。摘自:《神经信息处理系统的进展》15,麻省理工学院出版社,第713-720页 [44] Teh,YW;密歇根州约旦;比尔,MJ;Blei,DM,《分层Dirichlet过程》,美国统计学会杂志,101,476,1566-1581(2006)·Zbl 1171.62349号 [45] Teh YW,Newman D,Welling M(2007)潜在Dirichlet分配的折叠变分贝叶斯推理算法。In:Advances In neural information processing System 19,麻省理工学院出版社,第1353-1360页 [46] Tipping ME(1999)高维二进制数据的概率可视化。In:Advances In neural information processing System 11,麻省理工学院出版社,第592-598页 [47] 小费,ME;Bishop,C.,概率主成分分析,J R Stat Soc Ser B,21,3,611-622(1999)·Zbl 0924.62068号 [48] 汤姆,AM;沙赫特纳,R。;维格纳龙,V。;Puntonet,CG;Lang,EW,二进制数据集的逻辑非负矩阵分解方法,多维系统信号处理,26,1,125-143(2013) [49] 尤德尔,M。;喇叭,C。;扎德·R。;Boyd,S.,广义低秩模型,《发现趋势——马赫学习》,9,1,1-118(2016)·Zbl 1350.68221号 [50] Voeten,E。;Reinal,B.,《联合国大会投票的数据和分析》,《国际组织劳特利奇手册》(2013年),阿宾顿:劳特利吉,阿宾登 [51] 薛HJ,戴XY,张J,黄S,陈J(2017)推荐系统的深度矩阵分解模型。摘自:第26届国际人工智能联合会议记录(IJCAI-17),AAAI出版社,第3203-3209页 [52] 张,ZY;李·T。;丁,C。;任,XW;Zhang,XS,用于分析基因表达数据的二进制矩阵分解,data Min Knowl Discov,20,1,28-52(2009) [53] Zhou M(2015)用于重叠社区检测和链接预测的无限边缘划分模型。摘自:第18届国际人工智能与统计会议记录(AISTATS’15),第1135-1143页 [54] Zhou M,Hannah L,Dunson D,Carin L(2012)贝塔负二项过程和泊松因子分析。摘自:第十五届国际人工智能与统计会议记录(AISTATS’12),第1462-1471页 [55] 周,M。;丛,Y。;Chen,B.,可增强伽马信念网络,J Mach Learn Res,17,163,1-44(2016)·Zbl 1392.68373号 此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。