摘要

由于受行人姿态变化、光照视角和背景等因素的影响,行人再辨识是一项充满挑战性的任务。为了提高辨识的精准度,最近的研究通过对数据集中的行人分成若干块提取图像的局部特征进行辨识。但此类方法存在着人体局部特征不匹配,以及会丢失非人体部分的上下文线索等问题。为了解决以上问题,本文提出了一个可用于行人再辨识的局部特征对齐网络(Partial-Aligned Network),利用精确的局部特征增加人体语义解析对任意轮廓的建模能力,在此基础之上使用局部注意力网络捕捉非人体部分丢失的语境线索。实验结果表明,PAN模型在Market-1501、DukeMTMC和CUHK03三个数据集上mAP评价指标分别达到了83.5%、80.8%和92.4%,且在DukeMTMC数据集上Rank-1实现了90.2%。此外,通过将人体语义解析的局部特征进行对齐,可以有效的增加模型的鲁棒性和迁移性。

全文