×

高斯混合模型的广义期望最大化算法分析:控制系统的观点。 (英语) Zbl 1500.93051号

摘要:期望最大化(EM)算法是解决无监督学习中基于参数分布的聚类问题的最常用方法之一。在本文中,我们建议在高斯混合模型的背景下分析一种广义EM(GEM)算法,其中EM中的最大化步长被递增步长所取代。我们表明,该GEM算法可以理解为具有反馈非线性的线性时不变(LTI)系统。因此,我们利用鲁棒控制理论中的工具来探索它的一些收敛特性。最后,我们解释了如何设计所提出的GEM,并提供了一个教学示例来理解所提出方法的优势。

MSC公司:

93立方35 多变量系统、多维控制系统
93B35型 灵敏度(稳健性)
93二氧化碳 控制理论中的线性系统
第93页第52页 反馈控制

软件:

PRMLT公司
PDF格式BibTeX公司 XML格式引用

参考文献:

[1] Balakrishnan,S。;Wainwright,M.J。;Yu,B.,EM算法的统计保证:从人口到基于样本的分析,《统计年鉴》,45,1,77-120(2017)·Zbl 1367.62052号 ·doi:10.1214/16-AOS1435
[2] Bishop,C.,模式识别和机器学习(2006),SpringerVerlag·Zbl 1107.68072号
[3] 克雷蒂安,S。;Hero,A.O.,用于最大似然估计的Kullback近似算法,IEEE信息理论汇刊,46,5,1800-1810(2000)·Zbl 1021.68101号 ·数字对象标识代码:10.1109/18.857792
[4] 克雷蒂安,S。;Hero,A.O.,《关于EM算法及其近似推广》,《ESAIM:概率与统计》,第12308-326页(2008年)·Zbl 1187.65006号 ·doi:10.1051/ps:2007041
[5] Dempster,A.P。;新墨西哥州莱尔德。;Rubin,D.B.,通过EM算法从不完整数据中获得的最大似然,英国皇家统计学会杂志,B系列(方法论),39,1,1-22(1977)·Zbl 0364.62022号 ·doi:10.1111/rssb.1977.39.问题1
[6] 法兹利亚布,M。;里贝罗,A。;莫拉里,M。;Preciado,V.M.,通过积分二次约束分析优化算法:非强凸问题,SIAM优化杂志,28,3,2654-2689(2018)·Zbl 1406.90089号 ·doi:10.1137/17M1136845
[7] 费斯勒,J.A。;Hero,A.O.,使用空间交替广义EM算法的Penalized最大似然图像重建,IEEE图像处理汇刊,4,10,1417-1429(1995)·数字对象标识代码:10.1109/83.465106
[8] Figueiredo,M.A.T.(2008年)。EM算法的课堂讲稿。http://www.lx.it.pt/mtf/Figueiredo_EM_Algorithm.pdf
[9] Jay,L.O.,关于Q阶收敛的一个注记,BIT数值数学,41,2,422-429(2001)·Zbl 0973.40001号 ·doi:10.1023/A:1021902825707
[10] Krisjansson,T.、Frey,B.、Deng,L.和Acero,A.(2001)。通用EM框架中噪声和信道失真的联合估计。《IEEE自动语音识别和理解研讨会论文集》(第155-158页)。电气与电子工程师协会。
[11] Lessard,L。;Recht,B。;Packard,A.,通过积分二次约束分析和设计优化算法,SIAM优化杂志,26,1,57-95(2016)·Zbl 1329.90103号 ·数字对象标识代码:10.1137/15M10-09597
[12] Moon,T.K.,期望最大化算法,IEEE信号处理杂志,13,6,47-60(1996)·数字对象标识代码:10.1109/79.543975
[13] Neal,R.M.和Hinton,G.E.(1998年)。EM算法视图,用于证明增量、稀疏和其他变量的合理性。M.I.Jordan(Ed.),《图形模型学习》(第355-368页)。麻省理工学院出版社·Zbl 0916.62019号
[14] Nowak,R.D.,传感器网络中密度估计和聚类的分布式EM算法,IEEE信号处理汇刊,51,8,2245-2253(2003)·doi:10.1109/TSP.2003.814623
[15] Roche,A.(2011年)。EM算法和变体:非正式教程。arXiv预打印arXiv:1105.1476。
[16] Romero,O.、Chatterjee,S.和Pequito,S.(2019年7月)。基于离散Lyapunov稳定性理论的期望最大化算法的收敛性。《2019年美国控制会议记录》(第163-168页)。电气与电子工程师协会。
[17] Salakhutdinov,R.、Roweis,S.和Ghahramani,Z.(2003)。使用EM和期望结合粒度进行优化。T.Fawcett和N.Mishra(编辑),《第20届机器学习国际会议论文集》(第672-679页)。AAAI出版社。
[18] Tan,P.N。;斯坦巴赫,M。;库马尔,V.,《数据挖掘导论》(2005),艾迪生-韦斯利-朗曼出版公司
[19] Wu,C.J.,关于EM算法的收敛性,统计年鉴,11,1,95-103(1983)·Zbl 0517.62035号 ·doi:10.1214操作系统/117634-6060
[20] 徐,L。;Jordan,M.I.,关于高斯混合的EM算法的收敛性,神经计算,8,1129-151(1996)·doi:10.1162/neco.1996.8.1.129
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。