×

非线性非平稳对象的鲁棒神经进化识别。 (英语。俄文原件) Zbl 1298.68244号

赛博。系统。分析。 50,第1期,17-30(2014); 翻译自Kibern。修女。分析。2014年,第1期,21-36(2014)。
摘要:提出了一种神经进化方法来构建非高斯噪声下非线性非平稳对象的数学模型。考虑了进化前馈神经网络的一般结构。对各种非平稳情况的建模已经证明了所提出方法的有效性。

MSC公司:

68吨10 模式识别、语音识别
68T05型 人工智能中的学习和自适应系统
68T20型 人工智能背景下的问题解决(启发式、搜索策略等)
PDF格式BibTeX公司 XML格式引用
全文: 内政部

参考文献:

[1] S.Fahlman,“反向传播的快速学习变化:实证研究”,摘自:Proc。《1988年康涅狄格州模特夏默斯学校》,D.S.Touretzky、G.E.Hinton和T.Sejnowski(编辑),Morgan Kaufmann,匹兹堡(1988),第38-51页。
[2] S.Fahlman和C.Lebiere,“级联相关学习架构”,载于:D.S.Touretzky(编辑),Adv.Neur。通知。程序。系统。,2,Morgan Kaufmann,Los Altos(CA)(1990年),第524-532页。
[3] M.J.Riley、Ch.P.Thompson和K.W.Jenkins,“改善级联相关神经网络在多模态函数上的性能”,摘自:Proc。世界工程大会,3,伦敦(2010年)。
[4] X.Yao,“进化人工神经网络”,摘自:Proc。IEEE,87,No 9,1423-1447(1999)。
[5] X.Yao和Y.Lin,“进化人工神经网络的新进化系统”,IEEE Trans。《神经网络》,第3期,第694-713页(1997年)。 ·数字对象标识代码:10.1109/72.572107
[6] D.Floreano、P.Durr和C.Mattiussi,“神经进化:从架构到学习”,《进化》。英特尔。,1, 47–62 (2008). ·Zbl 05865965号 ·doi:10.1007/s12065-007-0002-4
[7] D.B.Fogel,“模拟进化优化简介”,IEEE Trans。《神经网络》,第5期,第1期,第3-14页(1994年)。 ·doi:10.1109/72.265956
[8] T.Back、V.Hammel和H.-D.Schwefel,“进化计算:历史和现状评论”,IEEE Trans。关于Evol。计算。,第1卷第4期,第3-17页(1997年)·Zbl 05451877号 ·doi:10.1109/4235.585888
[9] B.Zhang,Y.,Lu J.和K.-L.Du,“进化计算及其在神经和模糊系统中的应用”,应用。计算智能与软计算。,2011年第卷,文章编号938240(2011)。
[10] D.Whitley,“进化算法概述:实际问题和常见陷阱”,Inform。和软件技术,43,817–831(2001)。 ·doi:10.1016/S0950-5849(01)00188-4
[11] J.Holland,《自然和人工系统的适应》,第2版,麻省理工学院出版社,剑桥(1992)。
[12] D.Whitley、Y.S.Gordon和K.Mathias,“拉马克进化、鲍德温效应和函数优化”,摘自:Proc。《来自自然的平行问题解决》,施普林格,柏林(1994),第6-15页。
[13] Ch.Girand-Carrier,“通过鲍德温进化论和拉马克主义统一学习与进化:案例研究”,摘自:Proc。交响乐团。计算时。英特尔。和《学习》(CoIL-2000),Chios(希腊),MIT GmbH(2000),第36-41页。
[14] H.P.Schwefel,计算机模型的数值优化,Wiley,Chichester,N.Y.(1981)·Zbl 0451.65043号
[15] T.Bäck和H.-P.Schwefel,“参数优化进化算法概述”,Evol。计算。,第1卷第1期,第1–23页(1993年)·Zbl 05412697号 ·doi:10.1162/evco.1993.1.1.1
[16] J.R.Koza和J.P.Rice,“神经网络权重和结构的遗传生成”,摘自:Proc。IEEE国际神经网络联合会议,2,IEEE出版社,西雅图(WA)(1991),第71–76页。
[17] V.Lefort、K.Knibbe、G.Beslon和J.Fevrel,“RBF神经网络权重和结构的同步优化”,载于:Artif。演变。,施普林格,柏林(2006),第49-60页。
[18] G.E.Ninton和S.J.Nowlan,“学习如何引导进化”,《复杂系统》,1495-502(1987)·Zbl 0651.92015号
[19] D.J.Chalmers,《学习的进化:基因联结主义的实验》,摘自:Proc。1990年康涅狄格州模特暑期学校,D.S.Touretzky,J.L.Elman和G.E.Hinton(编辑),Morgan Kaufmann,San Mateo(CA)(1990年),第81-90页。
[20] J.Baxter,“人工神经网络学习算法的进化”,摘自:Complex Systems,D.Green和T.Bosso-Majer(编辑),IOS出版社,阿姆斯特丹(1992),第313–326页·Zbl 0830.68106号
[21] W.Kinnebrock,“使用遗传方法加速标准反向传播方法”,《神经计算》,6583–588(1994)。 ·doi:10.1016/0925-2312(94)90008-6
[22] K.W.C.Ku、M.W.Mak和W.C.Siu,“结合局部搜索和进化搜索训练神经网络的方法:综述和一些新结果”,载于《高级进化》。计算:理论与应用。,施普林格,柏林(2003),第615-641页。
[23] S.Ding、X.Xu和H.Zhu,“基于遗传算法(GA)的一些人工神经网络的优化算法研究”,J.Compute。,6,第5期,939–946(2011年)。 ·doi:10.4304/jcp.6.5.939-946
[24] H.Braun和P.Zagorski,“ENZO-M——一种通过进化和学习优化神经网络的混合方法”,载于:Proc。实习生。《自然并行问题解决大会》,柏林斯普林格出版社(1994),第440-451页。
[25] L.Guo、D.-S.Huang和W.Zhao,“将遗传优化与径向基函数神经网络的混合学习算法相结合”,电子。莱特。,39,第22期,1600-1601(2003)。 ·doi:10.1049/el:20031021
[26] C.Harpham、C.W.Dawson和M.R.Brown,“用于训练径向基函数网络的遗传算法综述”,《神经计算》。和申请。,13,第3期,193-201(2004)·Zbl 02224498号 ·doi:10.1007/s00521-004-04-5
[27] Lu Chun,Shi Bingxue,and Chen Lu,“多层前馈神经网络的混合BP-GA”,发表于:第7届IEEE实习生。Conf.Electronics,Circuits and Systems,2(2000),第958–961页。
[28] G.E.Hinton和S.J.Nowlan,“学习如何引导进化”,《复杂系统》,1495–502(1987)·Zbl 0651.92015号
[29] R.M.French和A.Messinger,“基因、苯环和鲍德温效应:模拟人群中的学习和进化”,摘自:Artif。《生活四》(1994年),第277-282页。
[30] P.A.Castillo、J.J.Merelo、V.Rivas等人,“G-Prop:使用GA对多层感知器进行全局优化”,《神经计算》,第35期,第149-163页(2000年)·Zbl 1003.68625号 ·doi:10.1016/S0925-2312(00)00302-7
[31] K.O.Stanley和R.Miikkulainen,“通过增强拓扑进化神经网络”,《进化》。计算。,10,第2期,99–127(2002年)·Zbl 05412887号 ·doi:10.1162/106365602320169811
[32] F.H.F.Leung、H.K.Lam、S.H.Ling和P.K.S.Tam,“使用改进的遗传算法调整神经网络的结构和参数”,IEEE Trans。《神经网络》,第14期,第1期,第79–88页(2003年)。 ·doi:10.1109/TNN.2002.804317
[33] D.J.Montana和L.Davis,“使用遗传算法训练前馈网络”,摘自:Proc。第11届国际人工智能联合会议,Morgan Kaufmann,Detroit(Mich.)(1989),第762-767页·Zbl 0709.68060号
[34] R.Neruda和S.Slusnu,“感知器网络的参数遗传学习”,摘自:Proc。第十届WSEAS系统国际会议,雅典(希腊),史蒂文斯点(威斯康星州,美国)(2006年),第92-97页。
[35] J.Gonzalez,I.Rojas,J.Ortega等人,“函数逼近径向基函数网络的尺寸、形状和位置参数的多目标进化优化”,IEEE Trans。《神经网络》,第14期,第6期,1478-1495(2003)。 ·doi:10.1109/TNN.2003.820657
[36] P.A.Castillo、J.Carpio、J.J.Merelo等人,“进化多层感知器”,Neur。程序。《信件》,12,115–127(2000)·Zbl 1060.68612号 ·doi:10.1023/A:1009684907680
[37] O.Buchtala、M.Klimek和B.Sick,“数据挖掘应用中径向基函数分类器的进化优化”,IEEE Trans。《系统、人与控制论》,B部分,928-947(2005)。
[38] E.P.Maillard和D.Gueriot,“RBF神经网络、基函数和遗传算法”,摘自:Proc。Int.Conf.Neural Networks,4,休斯顿(德克萨斯州)(1997年),第2187–2192页。
[39] S.Chen,Y.Wu和B.L.Luk,“径向基函数网络的组合遗传算法优化和正则化正交最小二乘学习”,IEEE Trans。神经网络,10,No.5,1239–1243(1999)。 ·数字对象标识代码:10.1109/72.788663
[40] Y.Jin和J.Branke,“不确定环境中的进化优化——一项调查”,IEEE Trans。进化。计算。,5,第3期,303–317(2005年)·Zbl 05452035号 ·doi:10.1109/TEVC.2005.846356
[41] P.Huber,《稳健统计》[俄文翻译],Mir,莫斯科(1984年)。
[42] 是的。Z.Tsypkin,《识别信息理论基础(俄语)》,瑙卡,莫斯科(1984年)。
[43] 是的。Z.Tsypkin和B.T.Polyak,“粗略的最大似然法”,《系统动力学》,第12期,第22–46页,Izd。戈尔克。Univ-ta,Gorky(1977年)。
[44] C.C.Lee、P.C.Chung、J.R.Tsai和C.I.Chang,“稳健径向基函数网络”,IEEE Trans。系统上。,《人与控制论》,29,第6期,674-684(1999)。
[45] O.G.Rudenko和O.O.Bezsonov,“径向基函数网络的稳健训练”,《控制论与系统分析》,第47期,第6期,第863-870页(2011年)·Zbl 1442.68203号 ·doi:10.1007/s10559-011-9365-8
[46] O.G.Rudenko和O.O.Bezsonov,“小波神经网络的稳健训练”,《自动化与信息科学杂志》,第5期,66-79页(2010年)。
[47] O.G.Rudenko和O.O.Bezsonov,“使用非对称影响函数对径向基函数网络进行M-training”,《自动化与信息科学杂志》,第1期,79-93页(2012年)。
[48] O.Rudenko和O.Bezsonov,“使用稳健径向基函数网络进行函数逼近”,英特尔杂志。学习。系统。和申请。,第3期,17-25(2011年)·Zbl 1442.68203号
[49] O.O.Bezsonov和O.G.Rudenko,“借助进化多层感知器识别非线性非平稳对象”,Vestn。昆图,第1期(44),130–135(2012)。
[50] O.O.Bezsonov,“利用自适应变异的遗传算法训练径向基函数网络”,《信息处理系统》,第3期(101),177-180(2012)。
[51] 谢家杰、林永乐和郑俊华,“威尔科森学习机的初步研究”,IEEE Trans。《神经网络》,第19期,第2期,第201–211页(2008年)。 ·doi:10.1109/TNN.2007.904035
此参考列表基于出版商或数字数学图书馆提供的信息。它的项目与zbMATH标识符启发式匹配,并且可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。