杂志的下一篇文章
基于WT-MIC-GRU的溶解氧浓度预测模型——以鄱阳湖碟形湖为例
下一篇特刊文章
CTRL:通过最小化速率降低闭环转录到LDR
期刊上的上一篇文章
稳定微极方程四种稳定有限元方法的数值分析与比较
特刊上一篇文章
深度神经网络的信息论解释
 
 
订购文章重印
字体类型:
宋体 佐治亚州 宋体,Verdana
字体大小:
澳大利亚 澳大利亚 澳大利亚
行距:
列宽:
5个 5个 5个
背景:
第条

基于受限最小误差熵准则的鲁棒尖峰连续元学习

1
天津大学电气与信息工程学院,天津300072
2
西安交通大学人工智能与机器人研究所,西安710049
*
信件应寄给的作者。
2022,24(4), 455;https://doi.org/10.3390/e24040455
收到的提交文件:2022年2月25日/修订日期:2022年3月19日/接受日期:2022年3月23日/发布日期:2022年3月25日
(本文属于特刊信息理论与机器学习)

摘要

:
尖峰神经网络(SNN)被认为是一种很有前途的候选方法,可以应对当前机器学习技术带来的巨大挑战,包括深度神经网络引起的高能量消耗。然而,SNN与人工神经网络的在线元学习性能之间仍存在很大差距。重要的是,现有的基于峰值的在线元学习模型没有针对基于时空动力学和优越的机器学习理论的鲁棒学习。在这篇受邀的文章中,我们提出了一个新的具有最小错误熵的基于尖峰的框架,称为MeMEE,使用熵理论在递归SNN架构中建立基于梯度的在线元学习方案。我们基于各种类型的任务来检查性能,包括自主导航和工作记忆测试。实验结果表明,所提出的MeMEE模型可以有效地提高基于尖峰的元学习性能的准确性和鲁棒性。更重要的是,所提出的MeMEE模型强调了现代信息理论学习方法在最先进的基于尖峰的学习算法上的应用。因此,在这篇受邀的论文中,我们为进一步将先进信息理论集成到机器学习中以提高SNN的学习性能提供了新的视角,这对基于尖峰的神经形态系统的应用开发具有很大的价值。

1.简介

近年来,深度学习在各种类型的个人狭义任务中表现出了优于人的表现[1]. 然而,与能够不断学习以执行无限任务的人类智能相比,当前成功的深度学习方法仍有许多缺点和局限性。事实上,人类可以通过一生积累知识来学习学习,这对人工神经网络(ANN)来说是一个巨大的挑战[2]. 从这个角度来看,持续元学习旨在通过为机器提供学习持续学习的元学习能力,在更高层次上实现机器智能[].
基于神经机制的组合,人脑可以持续实现元学习,避免灾难性遗忘问题[4]. 灾难性遗忘问题是发展持续元学习能力的关键挑战[5]. 人脑已经实现了一种基于代表以往经验的神经元活动模式的有效且可扩展的持续学习机制[6]. 神经元之间通过使用神经棘波进行通信和处理神经信息,这是大脑中最关键的基本机制之一。基于这种机制,人脑可以在不同方面实现卓越的性能,例如低功耗和高时空处理能力[7]. 因此,实现一种基于尖峰模式和大脑机制的大脑启发的连续元学习算法是一种很有前途的技术。
尖峰神经网络(SNN)使用基于尖峰动力学的生物似然神经元模型,而传统的ANN仅使用基于静态速率的神经元[8]. SNN被应用于重现大脑的机制和处理认知任务[9]. 此外,基于SNN的神经形态硬件可以在人工智能任务中实现高性能,包括低功耗、高噪声容限和低计算延迟[10]. 以前的神经形态硬件研究已经通过使用各种类型的任务,如Tianjic、Loihi、BiCoSS、CerebelluMorphic和LaCSNN,证明了这些优势[11,12,13,14,15]. 研究人员提出了SNN模型,以在基于尖峰的框架中实现短期记忆能力[16]. 然而,目前的SNN模型仍然存在非高斯噪声下的连续元学习问题,并且之前的研究还没有解决这一问题。因此,这是本研究的重点。
近年来,为了提高学习的鲁棒性和解释能力,信息理论学习(ITL)在机器学习领域受到了越来越多的关注[17,18,19]. 此前,Chen等人提出了专注于最大相关熵理论和最小误差熵准则的研究,以提高机器学习理论的鲁棒性[20,21,22]. 此外,为了提高机器学习模型的鲁棒性,提出了一系列基于熵的学习算法,包括引导补码熵和模糊熵[23,24,25]. 然而,基于ITL的方法在基于尖峰的连续元学习中没有应用来提高其学习鲁棒性。因此,在这篇受邀的文章中,我们旨在提出一种新的方法来处理这个具有挑战性的问题。提出了一种新的模型,称为最小误差熵元学习(MeMEE)。我们测试了所提出SNN模型的元学习能力。然后,我们研究了在非高斯噪声中的鲁棒工作记忆能力。最后,研究了在非高斯噪声条件下的鲁棒传递学习性能。实验结果表明,在非高斯噪声环境下,具有工作记忆特征的SNN模型具有较强的元学习能力。

2.材料和方法

2.1. SNN模型

以往的研究表明,树突的放电时间和活动空间可以显著影响神经功能。树突的兴奋性可以刺激细胞膜燃烧,而抑制性树突则可以产生相反的效果[26,27,28,29]. 受神经元模型的这种形态结构和功能的启发,我们提出了一种尖峰神经元模型,该模型由三个部分组成,包括一个躯体部分和两个树突部分。该模型利用不同的树突隔室接收兴奋性和抑制性输入,同时分别利用树突和体细胞接收和发送尖峰活动。树突和体细胞膜电位的计算公式如下
{ τ d日 U型 ( t吨 ) d日 t吨 = U型 ( t吨 ) + R(右) ( t吨 ) + ( U型 ( t吨 ) θ ) + e(电子) ( U型 e(电子) ( t吨 ) θ e(电子) ) Γ j个 ( t吨 ) z(z) j个 ( t吨 ) τ d日 U型 ( t吨 ) d日 t吨 = U型 ( t吨 ) + R(右) ( t吨 ) τ e(电子) d日 U型 e(电子) ( t吨 ) d日 t吨 = U型 e(电子) ( t吨 ) + R(右) e(电子) e(电子) ( t吨 )
哪里τv(v)表示膜的时间常数。变量U型(t吨),U型(t吨)、和U型e(电子)(t吨)分别表示体细胞膜电位、抑制性树突膜电位和兴奋性树突膜电位。参数θe(电子)θ分别表示兴奋树突和抑制树突的反转膜电位。 R(右) , R(右) e(电子) 、和 R(右) 分别代表体细胞、兴奋树突和抑制树突的膜电阻。参数e(电子)分别表示兴奋树突和抑制树突的突触电导。神经元发出尖峰信号t吨当它目前不处于难治期时。神经元的胞体使用尖峰适应机制。通过分析神经元的放电模式可以改变阈值大小。变量z(z)j个(t吨)表示神经元的棘波序列j个并假设值为{0,1/Δt吨}. 的动态Γj个(t吨)每一个尖峰都会改变,代表神经元的放电速度j个,定义为
Γ j个 ( t吨 ) = τ j个 0 + α τ j个 ( t吨 )
式中,α表示用于衡量偏差的常数τj个(t吨)从基线开始τj个0.变量τj个(t吨)可以定义为
τ j个 ( t吨 + Δ t吨 ) = β j个 τ j个 ( t吨 ) + ( 1 β j个 ) z(z) j个 ( t吨 )
哪里 β j个 = 经验 ( Δ t吨 / τ , j个 ) .常数τa、 j表示自适应时间常数。变量z(z)j个(t吨)表示神经元的棘波序列j个并假设值为{0,1/Δt吨}. 我们提出的尖峰神经元模型的参数值列于表1.输入电流j个(t吨)神经元的频率定义为来自外部神经元或其他神经元的脉冲的加权和。其数学公式如下
{ j个 ( t吨 ) = j个 = 1 n个 W公司 j个 χ ( t吨 κ j个 ) + j个 = 1 n个 W公司 j个 第页 e(电子) c(c) ε ( t吨 κ j个 第页 e(电子) c(c) ) j个 ( t吨 ) = j个 = 1 n个 W公司 j个 χ ( t吨 κ j个 ) + j个 = 1 n个 W公司 j个 第页 e(电子) c(c) ε ( t吨 κ j个 第页 e(电子) c(c) ) e(电子) j个 ( t吨 ) = j个 = 1 n个 W公司 j个 e(电子) χ ( t吨 κ j个 e(电子) ) + j个 = 1 n个 W公司 j个 e(电子) 第页 e(电子) c(c) ε ( t吨 κ j个 e(电子) 第页 e(电子) c(c) )
哪里 W公司 j个 第页 e(电子) c(c) , W公司 j个 e(电子) 第页 e(电子) c(c) 、和 W公司 j个 第页 e(电子) c(c) 分别表示体细胞、兴奋树突和抑制树突的反复突触重量。此外, W公司 j个 , W公司 j个 e(电子) 、和 W公司 j个 分别表示体细胞、兴奋树突和抑制树突的突触重量。常量 κ j个 , κ j个 e(电子) 、和 κ j个 分别表示躯体、兴奋性树突和抑制性树突的输入突触延迟。常量 κ j个 第页 e(电子) c(c) , κ j个 e(电子) 第页 e(电子) c(c) 、和 κ j个 第页 e(电子) c(c) 分别表示体细胞、兴奋性树突和抑制性树突的反复突触延迟。扣球训练 χ ( t吨 ) ε ( t吨 ) 被建模为Dirac脉冲的总和,分别表示来自输入神经元和具有循环连接的循环神经元的尖峰序列。所提出的尖峰神经元模型的动力学如所示图1因此。
我们将尖峰神经元模型集成到SNN框架中,并在不同类型的学习任务中测试该新模型的准确性。SNN模型的结构如所示图2模型分为三层:输入层、隐藏层和输出层。根据不同的任务,我们选择不同的输入层编码方法和输出层解码方法。图2,蓝色实线表示前馈抑制性突触连接,而红色虚线表示侧向抑制性突触连接。隐藏层中不同神经元的树突和胞体通过同时具有随机性和稀疏性的侧向抑制性突触连接。信息从输入层传输到树突,体细胞将脉冲信号传输到输出层。提出的SNN模型中的初始网络权重是通过高斯分布设置的W公司伊吉~ w个 0 n个 n个 N个 ( 0 , 1 ) ,其中n个在里面在权重矩阵中表示尖峰神经网络中的输入神经元数。N个(0,1)表示平均值和单位方差为零的高斯分布,而w个0= Δt吨/R(右)表示取决于时间步长Δ的权重比例因子t吨和膜电阻R(右)该比例因子非常重要,因为它用于以有效训练所需的实际发射率初始化峰值神经网络。
我们使用深度重新布线算法,因为它能够在学习过程中保持每个突触的符号[30]. 因此,该符号是从网络的初始权值继承而来的。考虑到这一点,该模型需要对兴奋性神经元和抑制性神经元有效且合理的初始化权值。为了实现这一点,我们从伯努利分布中抽取神经元样本,生成符号符号k个∈{−1,1}随机。同时,为了避免梯度爆炸的问题,我们缩放权重,使最大特征值小于1。根据所选行数生成一个大方阵,最终以均匀概率生成。然后将该平方矩阵乘以二进制掩码,得到一个稀疏矩阵,这是我们前面提到的深度重布线算法的一部分。该算法通过动态断开一些突触的连接,同时重新连接其他突触,实现了保持网络中稀疏连接水平的目标。在该算法中,我们将温度参数设置为0,将L1-形式正则化参数设置为0.01。

2.2. BPTT训练算法

在常见的人工神经网络模型中,损失函数的梯度是通过反向传播获得的。然而,由于SNN中尖峰信号的不可微性,反向传播的训练方法不能直接应用于SNN。如果时间是离散的,则需要通过连续时间或多个时间步长传播梯度。为了使SNN模型能够在训练过程中学习,我们使用了如下所示的伪导数技术
d日 z(z) j个 ( t吨 ) d日 v(v) j个 ( t吨 ) = k个 最大值 { 0 , 1 | v(v) j个 ( t吨 ) | }
哪里k个=0.3(通常小于1)是一个常量值,可以通过使用振幅的伪导数来抑制峰值反向传播误差的增加,以实现稳定性能的目标。变量z(z)j个(t吨)表示神经元的棘波序列j个它假定{0,1}中的值。变量v(v)j个(t吨)表示标准化膜电位,定义如下
v(v) j个 ( t吨 ) = V(V) j个 ( t吨 ) Γ j个 ( t吨 ) Γ j个 ( t吨 )
哪里Γj个表示神经元的放电速率j个为了为所提出的SAM模型提供强化学习所需的自学习能力,我们使用了一种近似策略优化算法[31]. 该算法易于实现,并允许模型具有自学习能力。该算法的裁剪代理目标定义为 O(运行) O(运行) ( ϑ o个 d日 , ϑ , t吨 , k个 ) 因此,关于 ϑ 公式化为
L(左) ( θ ) = k个 < K(K) t吨 < T型 O(运行) O(运行) ( ϑ o个 d日 , ϑ , t吨 , k个 ) K(K) T型 + μ (f) 1 n个 j个 k个 , t吨 z(z) j个 ( t吨 , k个 ) (f) 0 K(K) T型 2
哪里(f)0表示10 Hz的目标发射率μ(f)表示正则化超参数。变量t吨k个表示仿真时间步长和总纪元数。变量 ϑ 表示当前政策参数,该参数在之前的研究中定义[31]. 在训练的每次迭代中,K(K)=10集T型=使用固定参数生成2000个时间步 ϑ o个 d日 ,它是更新之前策略参数的向量,如中所示[31]. 同时,损失函数L(左)( ϑ )通过ADAM优化器最小化[32].

2.3. 最小误差熵准则(MEEC)

最小误差熵(MEE)可以最小化估计误差的熵,从而减少学习过程中的不确定性。假设随机变量,使用α阶Renyi熵e(电子)具有概率密度函数(f)α(e(电子)),定义为
H(H) ( e(电子) ) 1 1 α 日志 (f) α ( e(电子) ) d日 e(电子)
其中,对于本研究中的二阶仁义熵,α被设置为2。核密度估计(KDE)用于估计误差样本的PDF,具有三个优点。首先,它是一种非参数方法,不需要事先了解误差分布。其次,它不需要积分计算。第三,它可以是光滑的和可微的,这对梯度计算至关重要。考虑一组身份证数据 { e(电子) } = 1 N个 从分布中得出,PDF的KDE可以表示为
(f) ^ E类 ( e(电子) ) = 1 N个 = 1 N个 G公司 ( e(电子) e(电子) )
哪里G公司Σ(e(电子)e(电子))表示高斯函数,表达式如下
G公司 ( e(电子) e(电子) ) = 1 2 π ( det(探测) ) 经验 ( 1 2 ( e(电子) e(电子) ) T型 1 ( e(电子) e(电子) ) )
哪里N个Σ分别表示数据点的数量和内核参数。在本研究中,Σ表示带有-第个带方差的对角元 δ 2 对于e(电子)在里面e(电子),其中= 1, 2, …,S公司。内核参数表示一个自由参数。因此,Renyi的二次熵可以表示为
H(H) 2 ( e(电子) ) = 日志 ( 1 N个 = 1 N个 G公司 ( e(电子) e(电子) ) ) 2 d日 e(电子) = 日志 1 N个 2 ( = 1 N个 j个 = 1 N个 G公司 ( e(电子) e(电子) ) G公司 ( e(电子) e(电子) j个 ) ) d日 e(电子) = 日志 1 N个 2 ( = 1 N个 j个 = 1 N个 G公司 ( e(电子) e(电子) ) G公司 ( e(电子) e(电子) j个 ) ) d日 e(电子) = 日志 1 N个 2 ( = 1 N个 j个 = 1 N个 G公司 2 ( e(电子) e(电子) j个 ) ) = 日志 1 N个 2 ( = 1 N个 j个 = 1 N个 G公司 2 ( e(电子) e(电子) j个 ) )
根据公式(11),我们定义了一个函数V(V)(e(电子))表示变量的信息潜力e(电子),其公式为
V(V) ( e(电子) ) = 1 N个 2 ( = 1 N个 j个 = 1 N个 G公司 2 ( e(电子) e(电子) j个 ) )
因此,Renyi熵的最小化H(H)2(e(电子))意味着信息潜力的最大化V(V)(e(电子))由于log函数的单调递增特性。Parzen窗口用于降低计算复杂性和瞬时信息潜力t吨,可以公式化为
J型 1 ( e(电子) ) = 1 W公司 = k个 W公司 + 1 k个 G公司 2 ( e(电子) k个 e(电子) )
哪里W公司表示Parzen窗口的长度。值得注意的是,MEE是一种局部优化准则,但存在位移-变分问题。它只能确定错误PDF的位置,但无法知道分发位置。功能G公司Σ2(.)可以定义为具有带宽的高斯核函数σ
G公司 2 ( x个 ) = 1 2 π σ 经验 ( x个 2 2 σ 2 )
为了降低计算复杂度,采用量化技术实现量化MEE(QMEE)。因此,信息潜力表示为
V(V) ( e(电子) ) = 1 N个 2 ( = 1 N个 j个 = 1 N个 G公司 2 ( e(电子) | e(电子) j个 | ) ) = 1 N个 2 = 1 N个 j个 = 1 M(M) φ j个 G公司 2 ( e(电子) c(c) j个 )
哪里[.]表示每个量化算子的映射 { e(电子) } = 1 N个 至其中一个 { c(c) j个 } j个 = 1 M(M) ,生成代码本C类= (c(c)1,c(c)2,c(c),…,c(c)M(M)).Φ= (φ1,φ2, …,φM(M))表示量化到相应集合的样本数 { c(c) j个 } j个 = 1 M(M) 应注意的是 j个 = 1 M(M) φ j个 = N个 。鲁棒性的理论证明已在[22].

2.4。受限MEEC

在本研究中,使用了度量相似性的基本内积,这是从其向量的应用中推广而来的[33]. 连续pdf之间的内积相似性(f)X(X)(x个)和X(X)(x个)可以表示为
(f) X(X) ( x个 ) , X(X) ( x个 ) = X(X) (f) X(X) ( x个 ) X(X) ( x个 ) d日 x个
所需分布ρE类(e(电子)),表示为[33]具体来说,可以定义如下
ρ E类 ( e(电子) ) = { ζ 0 ,         e(电子) = 0 ζ 1 ,     e(电子) = 1 ζ 1 ,         e(电子) = 1 0 ,           否则
哪里ζ(=0,−1,1)表示每个峰值的相应密度,简化为Dirac-δ函数。
误差pdf之间相似性度量的最大化(f)E类(e(电子))以及所需的分布ρE类(e(电子))可以表述为
最大值 (f) E类 ( e(电子) ) , ρ E类 ( e(电子) ) ́ 最大值 X(X) (f) E类 ( e(电子) ) ρ E类 ( e(电子) ) d日 x个 ́ 最大值 ζ 0 (f) E类 ( 0 ) + ζ 1 (f) E类 ( 1 ) + ζ 1 (f) E类 ( 1 )
此外,模型参数可以表示为
w个 * = 参数 最大值 ζ 0 (f) ^ E类 ( 0 ) + ζ 1 (f) ^ E类 ( 1 ) ζ 1 (f) ^ E类 ( 1 ) = 参数 最大值 ( ζ 0 1 N个 = 1 N个 G公司 2 ( 0 e(电子) ) + ζ 1 1 N个 = 1 N个 G公司 2 ( 1 e(电子) ) ζ 1 1 N个 = 1 N个 G公司 2 ( 1 e(电子) ) ) = 参数 最大值 1 N个 2 = 1 N个 ( N个 ζ 0 G公司 2 ( e(电子) ) + N个 ζ 1 G公司 2 ( e(电子) + 1 ) + N个 ζ 1 G公司 2 ( e(电子) 1 ) )
事实上,QMEE收敛了预测误差 { c(c) j个 } j个 = 1 M(M) 以获得紧凑的误差分布。基于中的方法[33],一个预定的码本C类=(0,−1,1)实施QMEE以将错误限制在三个位置,并避免不良的双峰学习结果。因此,受限MEE(RMEE)算法可以表述为
V(V) R(右) ( e(电子) ) = 1 N个 2 = 1 N个 ( φ 0 G公司 2 ( e(电子) ) + φ 1 G公司 2 ( e(电子) + 1 ) + φ 1 G公司 2 ( e(电子) 1 ) )
哪里Φ= (φ0,φ1,φ1) = (0,1,1)表示每个量化字的对应数字C类= (0, −1, 1). 提出的RMEE算法最大化了错误pdf之间的内积相似度(f)E类(e(电子))以及最佳三峰分布ρE类(e(电子)). RMEE是QMEE的一种特定形式,其中代码本预定为C类=(0,−1,1)并将学习错误集中在这三个位置。
为了优化方程(19),使用半二次技术来解决优化问题。凸函数(x个)=−x个对数(−x个) +x个信息潜力可以表示为
V(V) R(右) ( e(电子) ) = = 1 N个 ( φ 0 { u个 e(电子) 2 2 σ 2 ( u个 ) } + φ 1 { v(v) ( e(电子) + 1 ) 2 2 σ 2 ( v(v) ) } + φ 1 { ( e(电子) 1 ) 2 2 σ 2 ( ) } ) J型 R(右) 1 ( w个 , u个 , v(v) , )
在半二次技术中,它具有以下关系
u个 k个 = 经验 ( e(电子) 2 2 σ 2 ) < 0 v(v) k个 = 经验 ( ( e(电子) + 1 ) 2 2 σ 2 ) < 0 k个 = 经验 ( ( e(电子) 1 ) 2 2 σ 2 ) < 0 ( = 1 , 2 , , N个 ) .
通过获得最佳( u个 k个 , v(v) k个 , k个 )在中k个第次迭代,信息潜力可以表示为
V(V) R(右) ( e(电子) ) = = 1 N个 ( φ 0 u个 ( t吨 ) 2 + φ 1 v(v) ( t吨 + 1 ) 2 + φ 1 ( t吨 1 ) 2 ) J型 R(右) 2 ( w个 )
这个J型R(右)2(w个)由于目标函数是可微且连续的,因此可以基于梯度方法进行优化。例如J型R(右)2(w个)可以表示为
w个 J型 R(右) 2 ( w个 ) = = 1 N个 ( φ 0 u个 ( t吨 ) 2 w个 + φ 1 v(v) ( t吨 + 1 ) 2 w个 + φ 1 ( t吨 1 ) 2 w个 ) = 2 = 1 N个 ( φ 0 u个 e(电子) + φ 1 v(v) ( e(电子) + 1 ) + φ 1 ( e(电子) 1 ) ) x个 ( 1 )
中给出了基于HQ的RMEE优化的详细算法及其收敛性分析[33].

3.结果

3.1. 具有RMEE标准的拟议网络

由于MEE具有平移不变的特性,基于MEEC的估计结果并不总是收敛到真值。一个考虑是将RMEE准则与CEE相结合,以获得全局最优解。交叉熵损失函数也称为对数损失,是反向传播最常用的损失函数。交叉熵损失函数随着预测概率偏离实际标签而增加,可描述如下
L(左) c(c) e(电子) ( ^ , ) = 日志 ( ^ )
在本文中,标签 n个 对于测试期间属于同一类图像的图像,仅假设其为1,否则为0。交叉熵公式可以表示为
J型 2 = n个 = 1 5 n个 日志 σ ( 20 + 20 n个 ) ( 1 n个 ) 日志 ( 1 σ 20 + 20 n个 )
其中SNN模型的输出仅在所有图像完全渲染后计算。因此,对于新标准,性能指标可以表示为
J型 k个 ( e(电子) ) = μ [ = 1 N个 ( φ 0 u个 ( t吨 ) 2 + φ 1 v(v) ( t吨 + 1 ) 2 + φ 1 ( t吨 1 ) 2 ) ] + ( 1 μ ) [ n个 = 1 5 ( n个 日志 σ ( 20 + 20 n个 ) ( 1 n个 ) 日志 ( 1 σ 20 + 20 n个 ) ) ]
哪里μ表示权重常数。在监督学习任务中,只存在交叉熵和RMEE,如方程(27)所述。

3.2. 自主导航

我们首先将提出的SNN模型应用于代理导航任务,这要求网络具有强化学习能力。代理需要学习在2D区域中查找对象,并最终能够导航到该区域中任意位置的对象。这项任务与著名的莫里斯水迷宫任务的神经科学范式相关,该任务旨在研究大脑中的学习[34]. 在该任务中,虚拟代理被模拟为二维仿真领域中的一个点,并由所提出的SNN模型控制。在一集开始时,代理的位置在整个竞技场中以统一的概率随机配置。代理生成欧几里德范数的小速度向量,并在每个时间步选择一个动作。到达目的地后,它会收到奖励值“1”。
在导航任务中(t吨)当前环境状态和奖励分数第页(t吨)在每个时间步长,输入层中的神经元接收作为输入数据。位置坐标信息由输入神经元通过高斯布居率编码方法进行编码。此外,输入层中的每个神经元都被分配了一个坐标值和一个触发率,其定义为:第页最大值=经验(-100(ξ-ξ)2),其中ξξ分别表示实际坐标值和首选坐标值。第页最大值应设置为500 Hz。此外,即时奖励第页(t吨)由两组输入神经元编码。在第一组中,神经元在收到正奖励时同步产生尖峰,而在第二组中,只要所提出的SNN模型收到负奖励,神经元就会产生尖峰。网络的输出由输出层中的五个带膜电位的读出神经元表示λ(t吨). 行动矢量ζ(t吨) = (ζx个(t吨),ζ(t吨))T型用于确定代理在前面提到的导航任务中的移动。它是根据平均值为高斯分布计算得出的μx个=棕褐色(λ1(t吨))和μ=坦桑尼亚(λ2(t吨))以及差异Φx个=σ(λ(t吨))和Φ=σ(λ4(t吨)). 最后,最后读出神经元λ的输出5计算以预测值函数μθ(t吨). 这预测了未来奖励的预期折扣金额Ω(t吨) =Σt’>t吨γt’−吨ω(t’),其中ω(t’)代表当时的奖励t’γ表示折现系数,其值通常为0.99。
基于所提出SNN模型的agent在元学习过程结束后,在导航任务中向正确的目的地位置学习。算法1描述了奖励学习过程中的整体训练过程。我们添加了其他损失函数来支持强化学习框架,使损失函数与等式(26)保持一致。图3显示了每次学习迭代的成功到达目的地数量(DRN)。每个迭代包含一批十集,网络权重在导航任务期间更新。对于每一集,模型都需要探索直到到达并存储目的地位置,并使用先验知识找到到达目的地的最短路径。这表明所提出的SNN模型在自主导航任务中具有元学习能力。
算法1奖励学习过程中的培训过程
输入:完整集的数量   K(K) ,时间步 T型 ,固定参数 θ o个 d日 ,目标射击速度 (f) 0 ,正则化超参数 µ v(v) , µ e(电子) , µ (f) 第页 n个 ,带宽 σ ,预测值函数 V(V) θ ( t吨 , k个 ) 以及未来奖励的总和 R(右) ( t吨 , k个 )
输出:总损失 L(左) θ .
    1.
参数设置: (f) 0 , µ v(v) , µ e(电子) , µ (f) 第页 n个   n个 d日   σ .
2。
对于n个在里面批量N:
    3.
       设置 e(电子) n个 = R(右) ( t吨 , k个 ) V(V) θ ( t吨 , k个 )
    4.
       如果字数为0:
    5.
                  ( φ 0 ,     φ 1 ,   φ 1 ) = ( N个 ,   0 ,   0 )
    6.
       其他的:
                ( φ 0 ,     φ 1 ,   φ 1 ) = ( # { e(电子) n个 ( 0.5 ,   0.5 ) } ,
                                      # { e(电子) n个 ( 1 , 0.5 ) } ,
                                        # { e(电子) n个 ( 0.5 ,   1 ) } )
               其中{·}表示对满足条件的样本进行计数
    7.
         ( u个 n个 , v(v) n个 , n个 ) = ( e(电子) x个 第页 ( e(电子) n个 2 2 σ 2 ) , e(电子) x个 第页 ( ( e(电子) n个 + 1 ) 2 2 σ 2 ) , e(电子) x个 第页 ( ( e(电子) n个 1 ) 2 2 σ 2 ) )
    8.
         L(左) n个 R(右) M(M) E类 E类 = φ 0 u个 n个 e(电子) n个 2 + φ 1 v(v) n个 ( e(电子) n个 + 1 ) 2 + φ 1 n个 ( e(电子) n个 1 ) 2
    9.
结束
   10.
对于k个在里面克:
   11.
        对于t吨在里面电话:
              L(左) ( t吨 , k个 ) O(运行) = O(运行) O(运行) ( θ o个 d日 , θ ,   t吨 ,   k个 )
   12.
        结束
   13.
结束
   14.
计算总损失:
        L(左) ( e(电子) ) = L(左) 第页 ( e(电子) ) + J型 k个 ( e(电子) )
   15.
返回  L(左) ( e(电子) )

3.3、。非高斯噪声下存储-回忆任务的工作记忆性能

为了进一步证明所提出的SNN模型的鲁棒工作记忆能力,我们将该模型应用于非高斯噪声下的存储-召回任务。商店召回任务的详细设置先前已在中介绍[35]. SNN模型接收由一段时间内的十个尖峰序列表示的帧序列。输入#1和#2分别由#1到#10和#11到#20的输入神经元的尖峰活动表示。如所示图4,从21号到30号和从31号到40号的神经元分别接收随机存储和调用命令。store命令意味着直接关注输入数据流的特定帧。然后,当接收到调用命令时,此帧将被复制。图4显示了一个工作记忆训练后扣球活动的测试示例。动态阈值随学习过程而变化,如所示图4这表明,所提出的SNN模型能够展现工作记忆性能,并成功实现存储-回忆任务。由于工作记忆是元学习的一个重要特征和基础,这也表明MeMEE模型可以基于其工作记忆机制展示元学习任务,并具有稳健的性能。

3.4. 非高斯噪声下序列MNIST数据集的元学习性能

我们进一步证明了所提出的SNN模型在基于序列MNIST(sMNIST)数据集的迁移学习任务中的元学习能力。我们将sMNIST数据集分为两部分。第一部分包括数字“0”、“1”、“2”、“3”和“4”的30000个图像,第二部分包括数字'5'、'6'、'7'、'8'和'9'的30000种图案。在第一阶段,第一部分用于训练SNN模型,第二部分用于训练。在第二阶段,将10%的椒盐噪声作为非高斯噪声加入到测试数据集中进行性能评估。图5显示了MeMEE模型的性能,并将其与其他对等模型进行了比较,包括递归SNN(RSNN)和无RMEE准则的传统基于LIF的SNN模型。这表明,所提出的模型优于其他解决方案,其背后的推理包括三点。首先,所提出的模型具有元学习能力,因此可以说明迁移学习能力,并且考虑到准确性和收敛速度,其迁移学习性能相应地优于RSNN模型。其次,由于RMEE准则是损失函数,因此其对非高斯噪声的鲁棒性在学习精度方面优于无RMEE准则的模型。结果表明,采用RMEE准则的MeMEE模型在学习连续时空模式方面具有更强的鲁棒元学习能力。

3.5. 损失参数对学习绩效的影响

在本研究中,我们进一步研究了每个损失函数如何影响所提出的MeMEE模型的学习性能。我们使用sMNIST数据集评估和量化学习精度以及不断变化的损失参数。为了证明基于所提出的MeMEE模型的学习鲁棒性,在sMNIST数据集中添加了椒盐噪声。考虑了不同的水平,从3.19%到19.13%进行选择。参数的不同值μ被调查,设置为0.3到1.0。如所示图6,的值μ使用0.7、0.8和0.9可以诱导序列视觉识别的较高学习精度。这表明,在没有RMEE准则的情况下,RMEE准则可以进一步增强所提出的MeMEE模型的鲁棒性,即。,μ= 1. 由于无RMEE准则的模型在3.19%非高斯噪声下仅达到83.6%的精度,因此RMEE准则可以提高所提出的非高斯椒盐噪声MeMEE模型的学习精度。

4.讨论

本文提出了一个信息论学习框架,用于稳健的尖峰驱动的连续元学习。与以往的SNN学习研究不同,我们首先引入RMEE标准来开发和改进基于尖峰的学习框架,该框架具有显著的通用性,也可以提供一系列理论见解。此外,与以往一些专注于提高SNN学习鲁棒性的研究相比,信息理论框架使我们能够直接理解和更好地解释SNN模型的鲁棒学习解决方案[36].
作为使用RMEE建立SNN连续元学习严格框架的第一步,本文的研究可以在理论和实践方面进行扩展。从理论上看,一种扩展是利用信息势来训练所提出的SNN模型。例如,如所示[37],Chen等人提出了一种用于自适应系统训练的生存信息势算法。这不需要计算核函数,因此具有良好的鲁棒性。另一个扩展是将所提出的框架应用于其他基于尖峰的学习范式,包括少镜头学习、多任务学习和无监督学习[38].
从实际角度来看,该模型有望在神经形态平台上实现,以实现各种类型应用的低功耗实时系统。最先进的数字神经形态系统包括Loihi[12]、天机[11]、BiCoSS[13],小脑形态[14],LaCSNN[15],TrueNorth[39]和SpiNNaker[40]. 通过实现嵌入式神经形态系统,它可以应用于不同的领域,如边缘计算设备、脑机集成系统和智能系统[41,42,43].

5.结论

在这篇受邀的论文中,我们首先提出了一种基于ITL的鲁棒尖峰连续元学习方案,该方案通过RMEE标准进行了改进。在递归SNN结构中提出了梯度下降学习原理。实现了几个任务来验证所提出的MeMEE模型的学习性能,包括自主导航、存储-召回任务中的健壮工作记忆和sMNIST数据集的健壮元学习能力。在第一个自主导航任务中,SNN模型通过任务奖惩的连续元学习来学习寻找正确的目的地。这表明,基于提出的RMEE准则的MeMEE模型实现了导航的元学习能力,并优于传统的RSNN模型。在第二个任务中,提出的MeMEE模型通过回忆存储的噪声模式来提高工作记忆性能。在第三个任务中,所提出的带有RMEE准则的MeMEE模型可以增强对噪声sMNIST图像的元学习任务的鲁棒性。这篇受邀的论文为基于信息论学习策略的基于尖峰的机器学习性能的提高提供了新的见解,这对人工通用智能的进一步研究至关重要。此外,它可以由低功耗神经形态系统实现,该系统可以应用于物联网(IoT)和无人系统的边缘计算。

作者贡献

S.Y.和B.C.为本文的概念化、方法论和写作做出了贡献。J.T.帮助进行了实验。所有作者都已阅读并同意手稿的出版版本。

基金

本研究部分由国家自然科学基金资助(批准号62006170、62088102、U21A20485),部分由中国博士后科学基金(批准号2020M680885、2021T140510)资助。

致谢

我们要感谢编辑和审稿人对手稿的评论。

利益冲突

作者声明没有利益冲突。资助者在研究设计中没有任何作用;收集、分析或解释数据;在撰写手稿时,或在决定公布结果时。

工具书类

  1. Krizhevsky,A。;Sutskever,I。;Hinton,G.使用深度卷积神经网络进行ImageNet分类。高级神经信息处理。系统。 2012,25, 89–94. [谷歌学者] [交叉参考]
  2. 帕里西,G.I。;Kemker,R。;第J.L.部分。;卡南,C。;Wermter,S.神经网络持续终身学习:综述。神经网络。 2019,113, 54–71. [谷歌学者] [交叉参考] [公共医学]
  3. 姚,H。;周,Y。;马哈达维,M。;李,Z。;Socher,R。;Xiong,C.在线结构化元学习。高级神经信息处理。系统。 2020,33, 6779–6790. [谷歌学者]
  4. 贾维德,K。;怀特,M.继续学习的元学习表征。高级神经信息处理。系统。 2019,32, 172. [谷歌学者]
  5. 塞拉,J。;苏利斯,D。;米隆,M。;Karatzoglou,A.通过对任务的认真关注来克服灾难性的遗忘。2018年7月10日至15日,瑞典斯德哥尔摩Stockholmsmässan,《机器学习国际会议论文集》(PMLR 80);第4548–4557页。[谷歌学者]
  6. 曾庚。;陈,Y。;崔,B。;Yu,S.神经网络中上下文相关处理的持续学习。自然马赫数。智力。 2019,1, 364–372. [谷歌学者] [交叉参考]
  7. 范德文,总经理。;H.T.Siegelmann。;托利亚斯(Tolias),A.S.Brain-inspired replay,用于人工神经网络的持续学习。国家公社。 2020,11, 4069. [谷歌学者] [交叉参考]
  8. Tavanei,A。;戈德拉蒂,M。;Kheradpisheh,S.R.公司。;Masquelier,T。;梅达(Maida),A.《尖峰神经网络的深度学习》(Deep learning in spiking neural networks)。神经网络。 2019,111, 47–63. [谷歌学者] [交叉参考] [绿色版本]
  9. Lee,C。;熊猫,P。;斯里尼瓦桑,G。;Roy,K.使用基于标准差的无监督预训练和监督微调训练深度峰值卷积神经网络。前面。神经科学。 2018,12, 435. [谷歌学者] [交叉参考]
  10. 夏,Q。;Yang,J.J.用于脑灵感计算的记忆十字阵列。自然材料。 2019,18, 309–323. [谷歌学者] [交叉参考]
  11. 裴,J。;邓,L。;Song,S。;赵,M。;Zhang,Y。;Wu,S。;王,G。;邹,Z。;Wu,Z。;He,W。;等。使用混合天机芯片架构实现人工通用智能。自然 2019,572, 106–111. [谷歌学者] [交叉参考]
  12. 戴维斯,M。;北斯里尼瓦萨。;林,T.-H。;Chinya,G。;曹毅。;Choday,S.H。;迪莫,G。;Joshi,P。;伊玛目,N。;Jain,S。;Loihi等人:具有片上学习功能的神经形态多核处理器。IEEE微型 2018,38, 82–99. [谷歌学者] [交叉参考]
  13. Yang,S。;Wang,J。;郝,X。;李,H。;魏,X。;邓,B。;Loparo,K.A.BiCoSS:走向具有多颗粒神经形态结构的大规模认知大脑。IEEE传输。神经网络。学习。系统。 2021,11, 1–15. [谷歌学者] [交叉参考] [公共医学]
  14. Yang,S。;Wang,J。;张,N。;邓,B。;Pang,Y。;Azghadi,M.R.小脑畸形:监督运动学习的大尺度神经形态模型和架构。IEEE传输。神经网络。学习。系统。 2021,23, 1–15. [谷歌学者] [交叉参考] [公共医学]
  15. Yang,S。;Wang,J。;邓,B。;刘,C。;李,H。;费特基维茨,C。;Loparo,K.A.大型基于电导的尖峰神经网络的实时神经形态系统。IEEE传输。赛博。 2019,49, 2490–2503. [谷歌学者] [交叉参考]
  16. Bellec,G。;Salaj,D。;苏布拉莫尼,A。;勒根斯坦,R。;Maass,W.在尖峰神经元网络中的长期短期记忆和学习。高级神经信息处理。系统。 2018,31, 247. [谷歌学者]
  17. 李毅。;周,J。;田,J。;郑,X。;Tang,Y.Y.基于加权误差熵的鲁棒子空间表示信息理论学习。IEEE传输。神经网络。学习。系统。 2021,19, 1–15. [谷歌学者] [交叉参考]
  18. 陈,J。;宋,L。;温赖特,M。;Jordan,M.学习解释:模型解释的信息论视角。第35届机器学习国际会议(PMLR 80)会议记录,瑞典斯德哥尔摩Stockholmsmässan,2018年7月10-15日;第883-892页。[谷歌学者]
  19. Xu,Y。;曹,P。;孔,Y。;Wang,Y.DMI:一种新的信息理论损失函数,用于训练对标签噪声鲁棒的深网。高级神经信息处理。系统。 2019,32, 76. [谷歌学者]
  20. 陈,B。;Xing,L。;赵,H。;杜,S。;Principe,J.C.离群值对最大相关熵估计的影响:稳健性分析。IEEE传输。系统。人类网络。系统。 2021,51, 4007–4012. [谷歌学者] [交叉参考]
  21. 陈,B。;李毅。;Dong,J。;卢,N。;秦,J.基于量化最小误差熵准则的常见空间模式。IEEE传输。系统。人类网络。系统。 2020,50, 4557–4568. [谷歌学者] [交叉参考]
  22. 陈,B。;Xing,L。;徐,B。;赵,H。;Principe,J.C.深入了解最小误差熵估计的稳健性。IEEE传输。神经网络。学习。系统。 2018,29, 731–737. [谷歌学者] [交叉参考]
  23. Chen,H.-Y。;梁,J.-H。;Chang,S.-C。;潘,J.-Y。;陈永泰。;魏,W。;Juan,D.-C.通过引导补码熵提高对抗鲁棒性。2019年10月27日至11月2日,韩国首尔,IEEE/CVF国际计算机视觉会议(ICCV)会议记录;第4880–4888页。[谷歌学者]
  24. 拉赫迪,M。;Waku,J。;哈兹吉,H。;Demongeot,J.Entropy作为基因调控网络中的稳健性标记。 2020,22, 260. [谷歌学者] [交叉参考] [公共医学] [绿色版本]
  25. Borin,J.A.M.S。;Humeau-Heurtier,A。;维吉利奥·席尔瓦,L.E。;Murta,L.O.短信号的多尺度熵分析:与全长长信号相比,基于模糊熵的变量的稳健性。 2021,23, 1620. [谷歌学者] [交叉参考] [公共医学]
  26. 格林伯格,C。;Milstein,A.D。;比特纳,K.C。;罗马尼亚语,S。;Magee,J.C.抑制非均匀调谐激发增强CA1位置细胞的空间编码。自然神经科学。 2017,20, 417–426. [谷歌学者] [交叉参考]
  27. 穆尼奥斯,W。;Tremblay,R。;列文斯坦,D。;Rudy,B.活跃清醒期间新皮质树突状抑制的层特异性调节。科学类 2017,355,954–959。[谷歌学者] [交叉参考] [绿色版本]
  28. Poleg-Polsky,A。;丁·H。;Diamond,J.S.视网膜中星暴无长突细胞树突内的功能分区。单元格代表。 2018,22, 2898–2908. [谷歌学者] [交叉参考] [绿色版本]
  29. Ranganathan,G.N。;阿波斯托里德,P.F。;麻省理工哈内特。;Xu,N.L。;Druckmann,S。;Magee,J.C.自适应感知行为期间的主动树突整合和混合新皮质网络表示。自然神经科学。 2018,21, 1583–1590. [谷歌学者] [交叉参考]
  30. Bellec,G。;卡佩尔,D。;Maass,W。;深层重组:训练非常稀疏的深层网络。arXiv公司 2017,arXiv:1711.05136。[谷歌学者]
  31. 舒尔曼,J。;沃尔斯基,F。;Dhariwal,P。;Radford,A。;Klimov,O.近似策略优化算法。arXiv公司 2017,arXiv:11707.06347。[谷歌学者]
  32. Kingma,D.P。;Ba,J.Adam:一种随机优化方法。arXiv公司 2014,arXiv:1412.6980。[谷歌学者]
  33. 李毅。;陈,B。;吉村,N。;Koike,Y.鲁棒分类的受限最小误差熵准则。IEEE传输。神经网络。学习。系统。 2021,2, 1–14. [谷歌学者] [交叉参考] [公共医学]
  34. 瓦西拉基,E。;弗莱莫克斯,N。;Urbanczik,R。;塞恩,W。;连续状态和动作空间中基于Spike的强化学习:当策略梯度方法失败时。公共科学图书馆计算。生物。 2009,5,电话1000586。[谷歌学者] [交叉参考]
  35. M.J.沃尔夫。;Jochim,J。;Akyürek,E.G。;工作记忆引导行为背后的动态隐藏状态。自然神经科学。 2017,20, 864–871. [谷歌学者] [交叉参考] [公共医学] [绿色版本]
  36. Yang,S。;高,T。;Wang,J。;邓,B。;Lansdell,B。;Linares-Barranco,B.采用树突事件处理的高效尖峰驱动学习。前面。神经科学。 2021,15, 601109. [谷歌学者] [交叉参考] [公共医学]
  37. 陈,B。;朱,P。;Principe,J.C.生存信息潜力:自适应系统训练的新标准。IEEE传输。信号处理。 2012,60, 1184–1194. [谷歌学者] [交叉参考]
  38. 江,R。;张杰。;Yan,R。;Tang,H.Few-通过多时间尺度优化在尖峰神经网络中进行学习。神经计算。 2021,33, 2439–2472. [谷歌学者] [交叉参考]
  39. 医学博士DeBole。;阿普斯瓦米,R。;P.J.卡尔森。;卡西迪,A.S。;达塔,P。;Esser,S.K.公司。;G.J.加罗。;荷兰,K.L。;Lekuch,S。;马斯特罗,M。;Truenorth等人:10年内神经元从零加速到6400万。电脑类 2019,52, 20–29. [谷歌学者] [交叉参考]
  40. Furber,S.B.公司。;盖洛皮,F。;圣殿,南部。;洛杉矶普莱纳SpiNNaker项目。程序。电气与电子工程师协会 2014,102, 652–665. [谷歌学者] [交叉参考]
  41. 俄克拉荷马州Krestinskaya。;A.P.詹姆斯。;Chua,L.O.边缘计算用神经记忆电路:综述。IEEE传输。神经网络。学习。系统。 2020,31, 4–23. [谷歌学者] [交叉参考] [绿色版本]
  42. Yoo,J。;Shoaran,M.带设备计算的神经接口系统:机器学习和神经形态结构。货币。操作。生物技术。 2021,72, 95–101. [谷歌学者] [交叉参考]
  43. Cho,S.W.公司。;Kwon,S.M。;Kim,Y。;Park,S.K.基于晶体管的光电突触的最新进展:从神经形态计算到人工感觉系统。高级智能。系统。 2021,, 2000162. [谷歌学者] [交叉参考]
图1。提出的脉冲神经元的动力学。()激发提出神经元模型的生物结构。(b条)阈值的自适应动态以及触发事件。
图1。提出的脉冲神经元的动力学。()激发提出神经元模型的生物结构。(b条)阈值的自适应动态以及触发事件。
熵24 00455 g001
图2。与拟议SAM模型集成的学习和记忆网络架构。这种网络结构相当于点神经元的2层网络。隐藏层中不同神经元的胞体和树突随机连接到外侧抑制性突触。输入层和输出层中的灰色圆圈不是SAM神经元,分别代表输入尖峰神经元和输出尖峰神经元。针对不同的任务确定输入和输出编码,这将在实验结果部分中进行描述。
图2。与拟议SAM模型集成的学习和记忆网络架构。这种网络结构相当于点神经元的2层网络。隐藏层中不同神经元的胞体和树突随机连接到外侧抑制性突触。输入层和输出层中的灰色圆圈不是SAM神经元,分别代表输入尖峰神经元和输出尖峰神经元。针对不同的任务确定输入和输出编码,这将在实验结果部分中进行描述。
熵24 00455 g002
图3。不同设置下建议模型的导航性能。
图3。不同设置下建议模型的导航性能。
熵24 00455 g003
图4。训练后所提出SNN模型的工作记忆能力。
图4。训练后所提出SNN模型的工作记忆能力。
熵24 00455 g004
图5。提出的MeMEE模型在序列MNIST数据集上的元学习能力。
图5。提出的MeMEE模型在序列MNIST数据集上的元学习能力。
熵24 00455 g005
图6。损失参数对序列分类学习性能的影响。
图6。损失参数对顺序分类学习性能的影响。
熵24 00455 g006
表1。尖峰神经元模型的参数设置。
表1。尖峰神经元模型的参数设置。
参数价值参数价值
R(右)1 ΩR(右),R(右)e(电子)1 Ω
τ20毫秒θ,θe(电子)0毫伏
κ,κ,κe(电子)5毫秒κ记录,κ爱尔兰共和国,κ电子工程师5毫秒
α1.8τ00.01
τ700毫秒,e(电子)1纳秒
出版商备注:MDPI对公布的地图和机构关联中的管辖权主张保持中立。

分享和引用

MDPI和ACS样式

Yang,S。;Tan,J。;陈,B。基于受限最小误差熵准则的稳健尖峰连续元学习。 2022,24, 455.https://doi.org/10.3390/e24040455

AMA风格

杨S,谭J,陈B。基于受限最小误差熵准则的稳健尖峰连续元学习。. 2022; 24(4):455.https://doi.org/10.3390/e24040455

芝加哥/图拉宾风格

杨、双明、谭江桐和陈巴东。2022.“受限最小误差熵准则改进的基于尖峰的稳健连续元学习”24,编号4:455。https://doi.org/10.3390/e24040455

请注意,从2016年第一期开始,本期刊使用文章编号,而不是页码。请参阅更多详细信息在这里.

文章指标

返回页首顶部