摘要
针对卷积神经网络预测过程中内存使用量大,难以部署在内存受限设备上的问题,提出一种面向内存受限设备的新型卷积计算方法。该方法对输入矩阵中部分数据进行卷积计算,并将计算结果存储在临时内存;然后,将临时内存中的计算结果复制到输入矩阵不再使用的内存并重复上述步骤,从而实现对输入矩阵的卷积计算;最后,对单个卷积计算和LeNet进行验证。实验结果表明,该方法计算速度较直接卷积方法更快,且相比im2col、MEC和直接卷积方法,单个卷积计算内存平均使用量分别下降89.29%、82.60%和57.15%,LeNet内存使用量分别下降89.90%、82.21%和28.07%,有效降低了卷积神经网络的内存使用量,有助于在内存受限设备上部署使用。
-
单位自动化学院; 南京邮电大学; 物联网学院