摘要

定位与建图是移动机器人自主导航的重要基础。基于单目视觉的SLAM算法存在着在快速运动、图像遮挡、纯旋转运动等场景下丢失目标的问题。IMU可以对短时间内的快速运动作出较好的位姿估计,而视觉数据可以有效地估计并修正IMU在慢速运动中的漂移,因此融合视觉和IMU的信息,提出了一种基于单目视觉和惯性信息融合的SLAM算法,弥补上述单目视觉SLAM算法存在的缺陷。首先,进行FAST角点检测并利用稀疏光流法对角点进行跟踪,提出一种基于IMU辅助的光流跟踪算法,在进行快速运动时,提高光流跟踪的速度。同时,利用IMU预积分算法,来估计两帧图片之间的相机运动,辅助光流跟踪。然后提出一种基于动态权值的视觉和惯性信息融合,采用滑动窗口的非线性优化框架,以紧耦合的方式来优化视觉和惯性测量值。最后利用任意长度图像序列生成地图。将算法在TUM数据集上进行测试,构建的地图显示该算法能够在复杂场景下重构全局一致的地图。