本文基于卷积神经网络(CNN),在经典手写数字识别MNIST数据集上对比了四种常用激活函数:Sigmoid、Tanh、ReLU和Re LU6。通过详细阐述激活函数的基本原理并进行实验分析,可以发现,ReLU6函数在现有神经网络算法中表现出较好的性能,具有较高的准确性和稳定性。然而,激活函数的选择应根据不同任务和数据集特点进行调整,并关注新型激活函数的研究和应用,以进一步提高神经网络的性能、泛化能力和计算效率。本文旨在为研究者和从业者提供关于激活函数选择的参考和启示。