摘要

针对图神经网络模型学习图嵌入节点表示过程中易丢失大量特征信息及其图拓扑保留不完整的问题,提出了一种改进的图注意力(Graph Attention)机制模型。该模型分为节点级双向注意力机制和图级自注意图池化两部分。首先,在学习图节点新的特征向量表示过程中,采取计算双向图注意力权重的方式,为邻域节点的保留提供可靠选择的同时增强节点间的相似属性;其次,在图的整体拓扑上结合自注意图池,使用节点特征向量作为输入,通过注意卷积层提供的自注意权重在池化层生成图嵌入表示;最后,在Cora、Citeseer、Pubmed数据集上进行了测试,实验结果表明:相比于基准图注意力机制模型,改进模型能够充分考虑图的局部和整体结构特征,有效增强模型聚合邻域信息的能力,减少了图嵌入过程中原始特征的丢失,明显提升了模型在下游任务的表现性能。