摘要
<正>尽管AI深度学习(以下简称深度学习)被认为是一项即将改变人类生产生活方式的颠覆性技术,但与其他先进技术的“两面性”一样,它的部署也会带来一定安全隐患。比如有研究发现,深度学习模型很容易受到对抗样本的欺骗,进而生成、输出错误甚至有害的结果。所谓对抗样本,即一种针对智能识别算法缺陷,由深度神经网络的输入数据和人工精心设计好的噪声合成得到的“假样本”。有趣的是,这种方式对图像所做的修改虽然不大,并不妨碍人眼对图像主体进行识别,但却足以欺骗深度学习模型。而一旦深度学习也就是深度神经网络功能失效,人工智能也就不再“智能”了。
- 单位