摘要

针对传统单目视觉里程计缺少深度信息,导致大规模尺度漂移的问题,该文提出了一种融合无监督深度学习与几何算法的视觉里程计方法。在单目深度2(Monodepth2)网络的基础上,提出了深度及姿态一致性损失,引入改进的通道-空间注意力模块,解决了自监督联合深度姿态学习中尺度不一致的问题;从密集光流中提取精确的稀疏匹配,通过求解本质矩阵来恢复相对姿态,使其不依赖于姿态网络(PoseNet),具有更好的鲁棒性。在KITTI数据集上进行实验,结果表明,该文提出的方法相比传统几何方法和端到端的深度学习方法,在多项评估指标方面有明显提升,验证了该算法的有效性。

全文