摘要

针对真实场景中行人图像因遮挡、姿态和视角变化等因素而导致行人特征判别性不足的问题,提出一种结合上下文信息和融合表征的行人重识别方法来丰富行人的特征表达,提高行人重识别的精度。首先设计了一个上下文残差模块,使用该模块构建主干网络以全局感受野和自注意力机制提取具有上下文信息的图像特征;然后将高层特征和低层特征通过三个并行分支和三个损失函数联合优化模型,使模型学习到一个类内紧致、类间分离的特征嵌入空间;最后在模型的推理阶段融合高低层特征,以此增强行人特征的语义和细节信息,提升特征的判别性。实验结果表明该方法在Market1501和DukeMTMC-reID数据集上Rank-1分别达到95.6%和89.6%,mAP分别达到88.6%和78.7%,在两个数据集上均有显著的性能提升。