×

Chow和Liu对树结构分布的近最优学习。 (英语) Zbl 07707672号

总结:我们为经典Chow-Liu算法提供了有限样本保证[Chow和Liu,IEEE传输。通知。理论,14(1968),pp.462-467]来学习分布的树结构图形模型。对于(Sigma^n)上的分布(P)和(n)节点上的树(T),如果存在一个结构分布(Q),使得(D(P;||;Q)最多比(P)的最佳树结构分布(varepsilon)多,那么我们说(T)是(P的)的近似树。我们证明了如果(P)本身是树结构的,那么Chow-Liu算法用插件估计器对具有(widetilde{O}(|\Sigma|^3n\varepsilon^{-1})独立和相同分布样本的互信息输出一个具有常数概率的(varepsilen)近似树。相反,对于一般的(P)(可能不是树结构的),需要(Omega(n^2\varepsilon^{-2})样本才能找到近似树。我们的上限基于一个新的条件独立性测试仪,该测试仪解决了Canonne等人提出的一个公开问题[会议记录50第届ACM SIGACT计算机理论年会,ACM,2018,第735-748页]:我们证明了对于三个随机变量(X,Y,Z)每个都超过(Sigma),如果(I(X;Y\mid Z)为0或(geq\varepsilon)可以用(widetilde{O}(|\Sigma|^3/\varepsilon)样本进行测试。最后,我们证明了对于一个特定的树(T),使用来自分布(P)over(Sigma^n)的(widetilde{O}(|\Sigma|^2n\varepsilon^{-1})样本,通过在每个节点应用add-1估计量,可以有效地学习KL散度中的最接近(T)结构分布。

MSC公司:

68问题32 计算学习理论
68瓦20 随机算法
94甲15 信息论(总论)
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] Abbeel,P.、Koller,D.和Ng,A.Y.,《多项式时间和样本复杂性中的学习因子图》,J.Mach。学习。Res.,7(2006),第1743-1788页·Zbl 1222.68128号
[2] Acharya,J.、Daskalakis,C.和Kamath,G.,分布特性的最佳测试,《神经信息处理系统进展学报》,2015年。
[3] Anandkumar,A.、Hsu,D.J.、Huang,F.和Kakade,S.M.,树图形模型的学习混合,《神经信息处理系统进展学报》,2012年,第1052-1060页。
[4] Antos,A.和Kontoyiannis,I.,离散分布函数估计的收敛性,随机结构算法,19(2001),第163-193页·Zbl 0985.62006号
[5] Batu,T.、Fortnow,L.、Fischer,E.、Kumar,R.、Rubinfeld,R.和White,P.,《测试随机变量的独立性和一致性》,载于2001年第42届计算机科学基础年度研讨会论文集。
[6] Bhattacharyya,A.、Gayen,S.、Meel,K.S.和Vinodchandran,N.V.,《通过学习实现结构化高维分布的有效距离近似》,https://arxiv.org/abs/2002.05378, 2020.
[7] Bhattacharyya,A.,Gayen,S.,Price,E.,和Vinodchandran,N.V.,Chow-Liu对树结构分布的近优学习,载于《第53届ACM SIGACT计算机理论研讨会论文集》,ACM,2021年,第147-160页,doi:10.1145/3406325.3451066·Zbl 07707672号
[8] Boix-Adserá,E.、Bresler,G.和Koehler,F.,Chow-Liu++:树Ising模型的最优预测中心学习,第62届IEEE计算机科学基础年度研讨会论文集,2022年,第417-426页,doi:10.1109/FOCS52979.2021.00049。
[9] Bresler,G.,《有效学习任意图上的Ising模型》,载于第47届ACM计算理论研讨会论文集,2015年,第771-782页·Zbl 1321.68397号
[10] Bresler,G.和Karzand,M.,学习树结构的伊辛模型以进行预测,Ann.Statist。,48(2020),第713-737页,doi:10.1214/19-AOS1808·Zbl 1469.62334号
[11] Bresler,G.和Karzand,M.,树伊辛模型中的最小极大值预测,《IEEE信息理论国际研讨会论文集》,2020年,第1325-1330页,doi:10.1109/ISIT4484.2020.9174341·Zbl 1469.62334号
[12] Bresler,G.、Mossel,E.和Sly,A.,《从样本重建马尔可夫随机场:一些观测值和算法》,SIAM J.Compute。,42(2013),第563-578页·兹比尔1271.68239
[13] Brustle,J.、Cai,Y.和Daskalakis,C.,《无项目相关性的多项目机制:通过稳健性学习》,载于《第21届ACM经济与计算会议论文集》,2020年,第715-761页。
[14] Canonne,C.L.,《关于分布测试的调查:你的数据很大》。但它是蓝色的吗?,计算复杂性电子座谈会63,http://eccc.hpi-web.de/report/2015/063, 2015.
[15] Canonne,C.L.,《私人通信》,2020年。
[16] Canonne,C.L.、Diakonikolas,I.、Kane,D.M.和Stewart,A.,《测试离散分布的条件独立性》,载于第50届ACM SIGACT计算机理论研讨会论文集,ACM,2018年,第735-748页,doi:10.1145/3188745.3188756·Zbl 1427.68357号
[17] Canonne,C.L.、Diakonikolas,I.、Kane,D.M.和Stewart,A.,《贝叶斯网络测试》,IEEE Trans。通知。《理论》,66(2020),第3132-3170页,doi:10.1109/TIT.2020.2971625·Zbl 1448.62081号
[18] Chechetka,A.和Guestrin,C.,薄连接树的有效原则学习,《神经信息处理系统进展学报》,2008年,第273-280页。
[19] Chickering,D.M.,Learning Bayesian networks is NP-complete,载于Proceedings of Learning from Data:The 5th International Workshop on Artificial Intelligence and Statistics,Fisher,D.和Lenz,H.编辑,1995年。
[20] Chow,C.和Wagner,T.,树相关概率分布估计的一致性,IEEE Trans。通知。《理论》,19(1973),第369-371页。
[21] Chow,C.K.和Liu,C.N.,用依赖树逼近离散概率分布,IEEE Trans。通知。理论,14(1968),第462-467页,doi:10.1109/TIT.1968.1054142·Zbl 0165.22305号
[22] Dagum,P.和Luby,M.,贝叶斯推理的最佳近似算法,Artif。智力。,93(1997),第1-28页·Zbl 1017.68542号
[23] Dasgupta,S.,学习固定结构贝叶斯网络的样本复杂性,马赫。学习。,29(1997),第165-180页,doi:10.1023/A:1007417612269·Zbl 0892.68078号
[24] Dasgupta,S.,学习Polytrees,http://arxiv.org/abs/1301.6688, 2013.
[25] Daskalakis,C.、Dikkala,N.和Kamath,G.,《测试伊辛模型》,IEEE Trans。通知。理论,65(2019),第6829-6852页,doi:10.1109/TIT.2019.2932255·Zbl 1433.62146号
[26] Daskalakis,C.和Pan,Q.,贝叶斯网络的平方Hellinger次可加性及其在身份测试中的应用,《第30届学习理论会议论文集》,Kale,S.和Shamir,O.编辑,2017年。
[27] Daskalakis,C.和Pan,Q.,树结构伊辛模型可以有效地学习,https://arxiv.org/abs/2010.14864, 2020.
[28] Dembo,A.和Zeitouni,O.,《大偏差技术与应用》,第二版,施普林格出版社,纽约,1998年·兹比尔0896.60013
[29] Devroye,L.、Mehrabian,A.和Reddad,T.,正常和伊辛无向图形模型的最小最大学习率,电子。《美国统计杂志》,第14卷(2020年),第2338-2361页·Zbl 1445.62069号
[30] Diakonikolas,I.、Gouleakis,T.、Kane,D.M.、Peebles,J.和Price,E.,《高概率离散分布的最优测试》,https://arxiv.org/abs/2009.06540, 2021. ·Zbl 1499.68388号
[31] Diakonikolas,I.、Gouleakis,T.、Peebles,J.和Price,E.,《高概率抽样最优身份测试》,载于《第45届国际自动化、语言和编程学术讨论会论文集》,Schloss Dagstuhl-Leibniz-Zentrum fuer Informatik,2018年·Zbl 1499.68388号
[32] Diakonikolas,I.和Kane,D.M.,《测试离散分布特性的新方法》,载于第57届计算机科学基础年度研讨会论文集,Dinur,I.编辑,IEEE,2016年。
[33] Goel,S.,Learning Ising and Potts models with tential variables,收录于《国际人工智能与统计会议论文集》,第3557-3566页。
[34] Goldreich,O.,《财产测试导论》,剑桥大学出版社,剑桥,2017年,doi:10.1017/9781108135252·Zbl 06797790号
[35] Goldreich,O.和Ron,D.,《关于有界度图的测试扩展》,摘自《复杂性和密码学研究:随机性和计算之间相互作用的杂项》,Springer,纽约,2011年,第68-75页·Zbl 1343.68302号
[36] Höffgen,K.-U.,《产品分布的学习和稳健学习》,《第六届计算学习理论年会论文集》,1993年,第77-83页。
[37] Kamath,S.、Orlitsky,A.、Pichapati,D.和Suresh,A.T.,《关于样本的学习分布》,《第28届学习理论会议论文集》,2015年。
[38] Karger,D.R.和Srebro,N.,《学习马尔可夫网络:最大有界树宽图》,载于《第十二届离散算法年度研讨会论文集》,华盛顿特区,Kosaraju,S.R.编,2001年,第392-401页·Zbl 0987.68067号
[39] Kearns,M.J.和Schapire,R.E.,《概率概念的有效无分布学习》,J.Compute。系统科学。,48(1994),第464-497页·Zbl 0822.68093号
[40] Kearns,M.J.,Schapire,R.E.和Sellie,L.M.,《迈向高效的不可知论学习》,马赫。学习。,17(1994年),第115-141页·Zbl 0938.68797号
[41] Klivans,A.R.和Meka,R.,《使用乘法权重学习图形模型》,载于《第58届IEEE计算机科学基础年度研讨会论文集》,Umans,C.编辑,2017年。
[42] Koller,D.和Friedman,N.,《概率图形模型:原理和技术》,麻省理工学院出版社,马萨诸塞州剑桥,2009年·Zbl 1183.68483号
[43] Kschichang,F.R.、Frey,B.J.和Loeliger,H.-A.,因子图和和积算法,IEEE Trans。通知。《理论》,47(2001),第498-519页·Zbl 0998.68234号
[44] 拉普拉斯,P.,《概率哲学论文》,1825年·Zbl 0810.01015号
[45] Lauritzen,S.L.,《图形模型》,克拉伦登出版社,牛津,1996年·Zbl 0907.62001
[46] Liu,H.、Xu,M.、Gu,H.,Gupta,A.、Lafferty,J.和Wasserman,L.,森林密度估算,J.Mach。学习。Res.,12(2011),第907-951页·Zbl 1280.62045号
[47] 米克,C。找到一条路比找到一棵树更难。智力。Res.,15(2001),第383-389页·Zbl 0994.68120号
[48] Meila,M.,《一种加速的Chow和Liu算法:将树分布拟合到高维稀疏数据》,载于《第十六届国际机器学习会议论文集》,斯洛文尼亚布莱德,Bratko,I.和Dzeroski,S.,eds.,Morgan Kaufmann,Burlington,MA,1999年,第249-257页。
[49] Meila,M.和Jordan,M.I.,《混合树木学习》,J.Mach。学习。Res.,1(2000),第1-48页·Zbl 1052.68116号
[50] Narasimhan,M.和Bilmes,J.,PAC学习有界树宽图形模型,载于《第20届人工智能不确定性会议论文集》,2004年,第410-417页。
[51] Neykov,M.、Balakrishnan,S.和Wasserman,L.,Minimax最优条件独立性测试,Ann.Statist。,49(2021),第2151-2177页·Zbl 1480.62077号
[52] 潘宁斯基,L.,熵和互信息的估计,神经计算。,15(2003年),第1191-1253页·Zbl 1052.62003年
[53] Rubinfeld,R.,Taming big probability distributions,Crossroads,19(2012),第24-28页,doi:10.1145/2331042.2331052。
[54] Srebro,N.,最大似然有界树宽马尔可夫网络,Artif。智力。,143(2003),第123-138页·Zbl 1011.68066号
[55] Tan,V.Y.,Anandkumar,A.,Tong,L.和Willsky,A.S.,马尔可夫树结构最大似然学习的大偏差分析,IEEE Trans。通知。《理论》,57(2011),第1714-1735页·Zbl 1366.60066号
[56] Tandon,A.、Tan,V.Y.和Zhu,S.,《学习带有副信息的树结构图形模型的精确渐近性:无噪和有噪样本》,预印本,arXiv:2005.043542020年。
[57] Valiant,L.G.,《可学习的共同理论》。ACM,27(1984),第1134-1142页·Zbl 0587.68077号
[58] Verma,T.和Pearl,J.,因果模型的等效性和综合,《第六届人工智能不确定性年会论文集》,Elsevier,纽约,1990年,第255-270页。
[59] Wainwright,M.J.,《估算“错误”的图形模型:计算受限设置的好处》,J.Mach。学习。Res.,7(2006),第1829-1859页·Zbl 1222.62114号
[60] Wainwright,M.J.和Jordan,M.I.,《图形模型、指数族和变分推断》,现出版商,马萨诸塞州诺威尔,2008年·Zbl 1193.62107号
[61] Wu,R.,Srikant,R.和Ni,J.,学习松散连接的马尔可夫随机场,斯托克。系统。,3(2013),第362-404页·Zbl 1352.62133号
[62] Wu,S.、Sanghavi,S.和Dimakis,A.G.,稀疏逻辑回归学习所有离散成对图形模型,载于《神经信息处理系统进展学报》,2019年,第8071-8081页。
[63] Yu,L.和Tan,V.Y.F.,渐近耦合及其在信息理论中的应用,IEEE Trans。通知。《理论》,65(2019),第1321-1344页·Zbl 1431.94037号
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。