深度神经网络对于对抗样本表现出脆弱性,为了提高网络的对抗鲁棒性,一种有效的方法是对抗训练。具有良好的对抗鲁棒性相较于自然训练的模型需要更大的模型容量,使得模型的存储容量和计算量增加。文章将对抗训练的加速方案用于对抗模型的压缩过程中,对鲁棒模型的压缩过程进行加速。在MNIST数据集上做测试,结果表明文章在对抗鲁棒模型的压缩与加速上获得一定的改进。