摘要

脉冲神经网络在连续学习过程中会产生灾难性遗忘, 以往的无监督方法需要足够大的网络规模才能达到良好的学习效果, 但这将耗费大量的计算时间和资源. 本文旨在用较小的网络规模实现较好的连续学习效果. 受神经科学的启发, 本文提出了一个网络分割与已有自适应突触可塑性相结合的方法: 首先把网络分割为与任务数相同且互不重叠的子网络, 然后每个子网络通过自适应突触可塑性进行无监督学习. 该方法易于实现, 只需要很少的计算资源, 并且允许小规模脉冲神经网络在多任务连续学习时保持高性能. 研究结果表明: 在小规模的脉冲神经网络上, 采用网络分割方法比不采用网络分割的测试精度明显提高. 对于四个数据集, 平均提高约40%.

全文