摘要
室内动态场景下的SLAM系统容易受到运动障碍物的影响,从而导致其位姿估计精度和视觉里程计的稳定性降低。提出一种基于YOLOv4目标检测网络的视觉SLAM算法,获取语义信息,并利用LK光流法,判断动态特征,在传统的ORB-SLAM2系统上将动态特征点剔除,只使用静态特征点来估计相机的位姿。建立稠密点云地图,并转化成节约内存空间的八叉树地图。在TUM公开数据集上对该方法进行测试和评估,实验结果表明,在动态环境下,该系统与ORB-SLAM2相比,相机位姿估计精度提高83%,且减少了生成的环境地图的存储空间,为后续实现机器人导航具有重要意义。
- 单位