×

仅使用输入相关性,大大提高了时序学习的稳定性和更快的收敛性。 (英语) Zbl 1095.68651号

摘要:目前,所有重要的、低级的、无监督的网络学习算法都遵循Hebb范式,其中输入和输出活动相互关联,以改变突触的连接强度。然而,其结果是,经典的Hebbian学习总是带有一个潜在的不稳定自相关项,这是因为每个输入都以加权形式反映在神经元的输出中。这种自相关可以导致正反馈,增加权重将增加输出,反之亦然,这可能导致分歧。这可以通过不同的策略来避免,例如重量标准化或重量饱和,但这可能会导致不同的问题。因此,在大多数情况下,高学习率不能用于希伯来语学习,导致收敛速度相对较慢。在这里,我们引入了一种新的基于相关性的学习规则,它与我们的各向同性序列顺序(ISO)学习规则相关,但将学习规则中输出的导数替换为反射输入的导数。因此,新规则只使用输入相关性,有效地实现了严格的异突触学习。这看起来像是一个小修改,但导致性能显著提高。从学习规则中删除输出会删除不需要的、不稳定的自相关项,从而允许我们使用高学习率。因此,我们可以从数学上证明,在理想条件下,使用新规则可以达到一次性学习的理论最优。然后,将这一结果与四种不同的实验设置进行测试,我们将表明,在所有这些实验中,实现学习目标只需要很少的(有时甚至只有一次)学习经验。因此,新的学习规则比ISO学习速度快100倍,通常更稳定。

MSC公司:

68T05型 人工智能中的学习和自适应系统

关键词:

网络学习算法
PDF格式BibTeX公司 XML格式引用
全文: DOI程序

参考文献:

[1] DOI:10.1146/年度修订编号09.030186.002041·doi:10.1146/annurev.ne.09.030186.002041
[2] 内政部:10.1007/BF00365229·Zbl 0364.92016年 ·doi:10.1007/BF00365229
[3] 内政部:10.1038/35036191·doi:10.1038/35036191
[4] 内政部:10.1007/BF03033301·doi:10.1007/BF03033301
[5] Bienenstock E.,J.神经科学。第2页32–(1982)
[6] DOI:10.1113/jphysiol.1973.sp010273·doi:10.1113/jphysiol.1973年sp010273
[7] 内政部:10.1016/0004-3702(91)90053-M·doi:10.1016/0004-3702(91)90053-M
[8] 数字对象标识码:10.1073/pnas.81.8.2577·doi:10.1073/pnas.81.8.2577
[9] 大研P.,马赫。学习。14(3)第295页–(1994)
[10] 内政部:10.1016/S0364-0213(87)80025-3·doi:10.1016/S0364-0213(87)80025-3
[11] 数字对象标识码:10.1121/1.413512·doi:10.1121/1.413512
[12] 内政部:10.1038/nature02194·doi:10.1038/nature02194
[13] DOI:10.1016/S0028-3908(02)00334-9·doi:10.1016/S0028-3908(02)00334-9
[14] DOI:10.1016/S0301-0082(03)00085-6·doi:10.1016/S0301-0082(03)00085-6
[15] Kaelbling L.P.,《人工智能研究杂志》4,第237页–(1996)
[16] DOI:10.1016/j.neu-biorev.2003.11.015·doi:10.1016/j.neu-biorev.2003.11.015
[17] 内政部:10.1109/2.36·数字对象标识代码:10.1109/2.36
[18] 数字对象标识码:10.1088/0954-898X_1_3_001·doi:10.1088/0954-898X_1_3_001
[19] 内政部:10.1126/science.285.5435.1870·doi:10.1126/science.285.5435.1870
[20] 内政部:10.1126/science.275.5297.213·doi:10.1126/science.275.5297.213
[21] DOI:10.1016/S0896-6273(00)80169-5·doi:10.1016/S0896-6273(00)80169-5
[22] DOI:10.1016/j.coph.2004.08.008·doi:10.1016/j.coph.2004.08.008
[23] DOI:10.1007/BF00275687·Zbl 0488.92012号 ·doi:10.1007/BF00275687
[24] DOI:10.1016/j.neunet.2004.08.005·doi:10.1016/j.neunet.2004.08.005
[25] 内政部:10.1162/08997660360581930·Zbl 1024.68086号 ·doi:10.1162/08997660360581930
[26] 内政部:10.1162/08997660360581921·Zbl 1022.68111号 ·doi:10.1162/08997660360581921
[27] 内政部:10.1098/rsta.2003.1273·doi:10.1098/rsta.2003.1273
[28] DOI:10.1023/A:1008910918445·Zbl 0955.92009号 ·doi:10.1023/A:1008910918445
[29] DOI:10.1037/h0042519·doi:10.1037/h0042519
[30] 内政部:10.1126/science.275.5306.1593·数字对象标识代码:10.1126/science.275.5306.1593
[31] 内政部:10.1162/089976601300014376·Zbl 1003.92010年 ·doi:10.1162/089976601300014376
[32] Sutton R.,机器学习3(1),第9页–(1988)
[33] 数字对象标识码:10.1037/0033-295X.88.2.135·doi:10.1037/0033-295X.88.2.135
[34] 内政部:10.1016/0921-8890(95)00022-8·doi:10.1016/0921-8890(95)00022-8
[35] DOI:10.1016/S0893-6080(98)00029-X·doi:10.1016/S0893-6080(98)00029-X
[36] DOI:10.1038/nature02024·doi:10.1038/nature00204
[37] 内政部:10.1007/BF00288907·doi:10.1007/BF00288907
[38] Watkins C.,机器学习8 pp 279–(1992)
[39] DOI:10.11162/089766053011555·doi:10.1162/0899766053011555
此参考列表基于出版商或数字数学图书馆提供的信息。其项与zbMATH标识符进行启发式匹配,可能包含数据转换错误。在某些情况下,zbMATH Open的数据对这些数据进行了补充/增强。这试图尽可能准确地反映原始论文中列出的参考文献,而不要求完整或完全匹配。