提出一种基于知识蒸馏的脉冲神经网络(SNN)强化学习方法 SDN。该方法利用STBP梯度下降法,实现深度神经网络(DNN)向SNN强化学习任务的知识蒸馏。实验结果表明,与传统的SNN强化学习和DNN强化学习方法相比,该方法可以更快地收敛,能获得比DNN参数量更小的SNN强化学习模型。将SDN部署到神经形态学芯片上,证明其功耗比DNN低,是高性能的SNN强化学习方法,可以加速SNN强化学习的收敛。