在这封信中,我们在尖峰神经元网络中实现并比较了两种神经编码算法:Winner-takes-all(WTA)和winners-share-all(WSA)。Winners-Share-All通过训练不同的由于神经元一起对不同的模式作出反应,而WTA使用一个单链热编码来对不同模式作出反应。使用WSA时为了最大限度地利用信息容量从理论上确定并利用输出神经元。将一个小的概念验证分类问题应用于一个加标神经网络,使用这两种算法对图像大小为15的14个英文字母进行分类15像素。对于这两种方案,都使用了一种改进的尖峰时间相关可塑性(STDP)学习规则,以无监督的方式训练尖峰神经元。比较了两种算法的性能和执行此计算所需的神经元数量。我们表明,通过容忍性能准确度的小幅下降(WSA为84%,WTA为91%),我们能够将输出神经元的数量减少两倍以上。我们展示了神经元数量的减少是如何随着模式数量的增加而增加的。输出神经元数量的减少将成比例地减少训练参数的数量,这需要更少的内存,从而加快计算速度,并且在硅上实现神经形态的情况下,将占用更少的面积。

您当前无权访问此内容。