摘要
随着深度学习技术在各个领域的广泛应用,其安全问题得到越来越多的关注.近年来,对抗样本成为深度学习安全领域的热点问题之一.对抗样本具有高隐蔽性,可通过欺骗深度神经网络导致模型输出错误预测结果,对深度学习系统的可靠性和安全性提出挑战.因此,研究对抗样本不仅能发现模型的脆弱性,还能为防御策略的提出和模型鲁棒性的增强提供思路.文章从对抗样本的起源和基本原理出发,将现有的对抗样本生成方法分成特定目标攻击和无特定目标攻击两类,对其分别展开讨论,并使用MNIST数据集对几种主要的生成方法进行验证.此外,文章进一步探讨对抗样本在不同领域的应用,并讨论了对抗样本进一步的研究思路.
- 单位