最近关于尖峰神经网络(SNN)的工作集中在实现深度架构上。他们通常使用反向传播(BP)直接训练SNN,这使得SNN能够深入并获得更高的性能。然而,BP训练过程是一个计算密集且复杂的过程,有许多可训练参数。受卷积神经网络(CNN)中全局池的启发,我们提出了基于概率函数的峰值概率全局池(SPGP)方法来训练深度卷积SNN。它的目的是消除训练过程中多层结构带来的可训练参数过多的困难,从而降低过拟合的风险,并为深层SNN(DSNN)获得更好的性能。我们使用离散泄漏-积分火灾模型和时空BP算法直接训练DSNN。因此,与现有的DSNN相比,我们使用SPGP方法训练的模型在图像和神经形态数据集上取得了具有竞争力的性能,同时最小化了可训练参数的数量。此外,所提出的SPGP方法在性能改进、收敛和泛化能力方面表现出了有效性。

补充数据

您当前无权访问此内容。