×

子空间维数确定的比较研究。 (英语) Zbl 1079.68590号

摘要:众所周知,多个线性神经单元上的约束Hebbian自组织导致由第一主成分跨越的相同(k)维子空间。自20世纪30年代以来,批处理PCA算法不仅在各个领域得到了广泛的应用,而且在过去的二十年里,人们提出了各种自适应算法。然而,尽管统计文献中存在许多模型选择标准,但大多数研究都假设一个已知的维度(k)或以启发性的方式确定它。最近,在贝叶斯阴阳(BYY)和声学习的框架下,也获得了一些标准。本文将BYY准则与现有的典型准则进行了比较,包括Akaike信息准则(AIC)、一致Akaike信息准则(CAIC)、贝叶斯推理准则(BIC)和交叉验证准则(CV)。本文通过实验对不同样本大小、噪声方差、数据空间维数和子空间维数的模拟数据集,以及分别来自空气污染问题和运动轨迹记录的两个真实数据集进行了比较研究。实验表明,BIC优于AIC、CAIC和CV,而BYY标准要么与BIC相当,要么优于BIC。因此,BYY调和学习是子空间维数确定的一种更为优选的工具,因为它进一步考虑到在对主子空间进行BYY和谐学习时,可以自动确定合适的子空间维数(k),而BIC、AIC、CAIC、,在第二阶段,CV必须基于一组不同维度的候选子空间,这些子空间必须在第一阶段的学习中获得。

MSC公司:

68T05型 人工智能中的学习和自适应系统

软件:

LAPACK公司
PDF格式BibTeX公司 XML格式引用
全文: DOI程序

参考文献:

[1] Akaike,H.,统计模型识别的新视角,IEEE自动控制汇刊,19716-723(1974)·Zbl 0314.62039号
[2] Akaike,H.,因子分析和AIC,《心理测量学》,52,3,317-332(1987)·Zbl 0627.62067号
[3] Anderson,E.Z.B.,《LAPACK用户指南》(1999),SIAM:SIAM Philadelphia,PA·Zbl 0843.65018号
[4] Anderson,T.W.和Rubin,H.(1956年)。因子分析中的统计推断。在:第三届伯克利数理统计与概率研讨会论文集; Anderson,T.W.和Rubin,H.(1956年)。因子分析中的统计推断。在:第三届伯克利数理统计与概率研讨会论文集·Zbl 0070.14703号
[5] 巴尔迪,P。;Hornik,K.,《线性神经网络学习:一项调查》,IEEE神经网络汇刊,6837-858(1995)
[6] 巴伦,A。;Rissanen,J.,编码和建模中的最小描述长度原则,IEEE信息理论汇刊,442743-2760(1998)·Zbl 0933.94013号
[7] Bozdogan,H.,《模型选择和Akaike信息标准(AIC):一般理论及其分析扩展》,《心理测量学》,52,3,345-370(1987)·Zbl 0627.62005号
[8] Cattell,R.,《因子数量的筛选试验》,《多元行为研究》,1245-276(1966)
[9] 迪亚曼塔拉斯,D。;Kung,S.,《主成分神经网络:理论与应用》(1996),Wiley:Wiley New York·Zbl 0911.68157号
[10] 约翰逊,R。;Wichern,D.,应用多元统计分析(1998),普伦蒂斯·霍尔:普伦蒂斯霍尔纽约
[11] Jolliffe,I.,主成分分析(1986),Springer:Springer New York·Zbl 1011.62064号
[12] Kaiser,H.,《第二代小飞飞》,《心理测量学》,35,401-415(1970)·兹比尔0212.52101
[13] 劳利·D.N.(1940)。用最大似然法估计因子负荷。在:爱丁堡皇家学会会刊; 劳利·D.N.(1940)。用最大似然法估计因子负荷。在:爱丁堡皇家学会会刊·Zbl 0027.23503号
[14] Oja,E.,作为主成分分析仪的简化神经元模型,《数学生物学杂志》,第15期,第267-273页(1982年)·Zbl 0488.92012号
[15] Oja,E.,《神经网络、主成分和子空间》,神经系统国际期刊,161-68(1989)
[16] Rissanen,J.,《最短数据描述建模》,Automatica,1465-471(1978)·Zbl 0418.93079号
[17] Roweis,S.,PCA和SPCA的EM算法,(Jordan,M.I.;Kearns,M.J.;Solla,S.A.,《神经信息处理系统的进展》,第10卷(1998),麻省理工学院出版社:麻省理学学院出版社,马萨诸塞州剑桥),626-632
[18] 鲁宾,D。;Thayer,D.,ML因子分析的EM算法,《心理测量学》,47,1,69-76(1982)·Zbl 0483.62046号
[19] Rubner,J。;Tavan,P.,《用于主成分分析的自组织网络》,《欧洲物理快报》,10693-698(1989)
[20] Schwarz,G.,估算模型的维度,《统计年鉴》,6,2,461-464(1978)·Zbl 0379.62005年
[21] Sclove,S.L.,《模型选择标准的某些方面》(Bozdogan,H.,《第一届美日统计建模前沿会议论文集:信息方法》,第2卷(1994),Kluwer学术出版社:Kluwer-学术出版社,荷兰多德雷赫特),37-67
[22] Stone,M.,《使用交叉验证选择和评估预测函数》,英国皇家统计学会期刊B,36111-147(1974)·Zbl 0308.62063号
[23] Tipping,M.E。;Bishop,C.M.,概率主成分分析仪的混合,神经计算,11,2,443-482(1999)
[24] Xu,L.(1994a)。超越PCA学习:从线性到非线性,从全局表示到局部表示。在:神经信息处理国际会议记录(ICONIP94); Xu,L.(1994a)。超越PCA学习:从线性到非线性,从全局表示到局部表示。在:神经信息处理国际会议记录(ICONIP94)
[25] Xu,L.(1994年b)。无监督学习理论:主成分分析及其非线性扩展。在:IEEE ICNN94会议记录; Xu,L.(1994年b)。无监督学习理论:主成分分析及其非线性扩展。在:IEEE ICNN94会议记录
[26] Xu,L.(1995)。Bayesian Kullback耦合Ying Yang机器:向量量化的统一学习和新结果。在:神经信息处理国际会议记录(ICONIP95); Xu,L.(1995)。Bayesian-Kullback耦合的阴阳机器:统一学习和矢量量化的新结果。在:神经信息处理国际会议记录(ICONIP95)
[27] Xu,L.,贝叶斯阴阳学习理论在数据降维和确定中的应用,《金融业累积智能杂志》,6,5,6-18(1998)
[28] Xu,L.,状态空间方法的时态BYY学习,隐马尔可夫模型和盲源分离,IEEE信号处理汇刊,482132-144(2000)·Zbl 0982.94004号
[29] Xu,L.,高斯混合、三层网络和me-rbf-svm模型上无监督和监督的最佳协调、统一RPCL和自动模型选择,国际神经系统杂志,11,1,43-69(2001)
[30] Xu,L.,BYY和谐学习、独立状态空间和广义APT财务分析,IEEE神经网络汇刊,12,41822-849(2001)
[31] Xu,L.,BYY和谐学习,结构RPCL和混合模型上的拓扑自组织,神经网络,15125-1151(2002)
[32] Xu,L.,数据平滑正则化、多集学习和问题解决策略,神经网络,16,5/6,817-825(2003)
[33] Xu,L.,带噪声和时间的独立成分分析和扩展:贝叶斯阴阳学习视角,神经信息处理快报和评论,1,1,1-52(2003)
[34] 徐,L。;Yuille,A.,基于统计物理方法的自组织规则稳健主成分分析,IEEE神经网络汇刊,6,1,131-143(1995)
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。