摘要

深度图神经网络的脆弱性导致模型容易遭受到恶意的攻击。现有的图神经网络逃逸攻击主要以梯度信息作为节点注入依据,攻击易被察觉。为此,提出一种在黑盒场景下的攻击模型DRL-IAA。考虑到图结构的离散特性和攻击方式的可转移性,采用强化学习作为攻击框架。且根据不同攻击阶段的不同特性,引入图注意力网络进行伪节点特征生成,采用图卷积网络用作连边。文章在三个基准数据集上进行了相关对比实验。实验表明,DRL-IAA能够生成更加有效的对抗样本来误导分类器的判断;在总体时间效率上也优于其他模型。