摘要

针对现有跨视角地理定位方法中视点不变特征与视角转换方法割裂导致的性能提升瓶颈问题,提出了多任务联合学习模型(MJLM)。MJLM由前置图像生成模型和后置图像检索模型组成。前置生成模型首先使用逆透视映射(IPM)进行坐标变换,显式地弥合空间域差,使投影图像与真实卫星图的空间几何特征大致相同,然后通过提出的跨视角生成对抗网络(CVGAN)隐式地对图像内容及纹理进行细粒度的匹配和修复,合成出更为平滑且真实的卫星图像;后置检索模型由多视角多监督网络(MMNet)构成,能够兼具多尺度特征和多监督学习进行图像检索任务。通过在University-1652(无人机定位数据集)上进行实验,MJLM在无人机定位任务的平均精确率(AP)及召回率(R@1)上分别达到89.22%和87.54%,与LPN和MSBA相比,R@1性能分别提升了15.29%和1.07%。实验结果表明,MJLM在一个聚合框架体系内联合处理跨视角图像生成任务及检索任务,实现基于视角转换与视点不变特征方法的融合,有效提升了跨视角地理定位的准确性和鲁棒性,验证了无人机定位的可行性。