摘要

针对跨相机网络视频中存在的遮挡、空间不对齐、背景杂波等因素导致视频行人重识别性能较低的问题,提出了一种基于图卷积与自注意力图池化的视频行人重识别方法。首先,通过区块关系图建模来挖掘视频中帧间不同区域的关联信息,利用图卷积网络(GCN)优化逐帧图像中的区域特征,以缓解遮挡和不对齐等问题。然后,通过自注意力图池化(SAGP)机制去除对于行人特征贡献较低的区域,以避免背景杂波区域的干扰。最后,提出了一种加权损失函数策略,中心损失用以优化分类学习结果,在线软挖掘(OSM)和类感知注意力(CAA)损失用以解决难样本挖掘过程中可用样本未被充分利用的问题。实验结果表明,在MARS数据集上,所提方法的平均精度精值(mAP)为85.7%,Rank-1达到90.2%;在DukeMTMC-VideoReID数据集上,该方法的mAP为95.8%,Rank-1达到96.7%,优于现有主流方法,如互注意力(MA)模型等。因此,所提方法能够较好地利用视频中的时空信息,提取更具判别力的行人特征,从而提高行人重识别任务的性能。