基于改进sigmoid激活函数的深度神经网络训练算法研究

作者:黄毅; 段修生; 孙世宇; 郎巍
来源:计算机测量与控制, 2017, 25(02): 126-129.
DOI:10.16526/j.cnki.11-4762/tp.2017.02.035

摘要

针对深度神经网络训练过程中残差随着其传播深度越来越小而使底层网络无法得到有效训练的问题,通过分析传统sigmoid激活函数应用于深度神经网络的局限性,提出双参数sigmoid激活函数;个参数保证激活函数的输入集中坐标原点两侧,避免了激活函数进入饱和区,一个参数抑制残差衰减的速度,双参数结合有效地增强了深度神经网络的训练;用DBN对MNIST数据集进行数字分类实验,实验表明双参数sigmoid激活函数能够直接应用于无预训练深度神经网络,而且提高了sigmoid激活函数在有预训练深度神经网络中的训练效果。

  • 单位
    中国人民解放军陆军工程大学

全文