摘要

针对深度卷积神经网络中常见激活函数存在的表达能力不足、缺乏稀疏能力或梯度消失等问题,提出了一种新的不饱和非线性激励函数LReLU-Softplus。将使用常见激活函数和LReLU-Softplus函数的网络模型在MNIST和CIFAR-10数据集上进行对比实验。结果表明,基于LReLU-Softplus函数的卷积神经网络相比于其他激活函数不仅收敛速度更快,而且识别效率更高,误差率更低。

  • 单位
    福建医科大学附属漳州市医院; 漳州卫生职业学院; 现代教育技术中心