摘要

目前视觉SLAM(同步定位与地图创建)方法在动态环境下易出现漏剔除动态物体的问题,影响相机位姿估计精度以及地图的可用性。为此,本文提出一种基于增强分割的RGB-D SLAM方法。首先结合实例分割网络与深度图像聚类的结果,判断当前帧是否出现漏分割现象,若出现则根据多帧信息对分割结果进行修补,同时,提取当前帧的Shi-Tomasi角点并通过对称转移误差筛选出动态角点集合。然后结合修补后的实例分割结果判定场景中每个实例对象的运动状态。最后利用静态特征点追踪相机位姿并构建实例级语义八叉树地图。在TUM公共数据集以及真实场景中评估了该方法,相比较于当前先进的视觉SLAM方法,本文方法取得了更好的相机位姿估计精度以及地图构建效果,展现出了更强的鲁棒性。