摘要
场景中的动态物体影响移动机器人定位算法的精度,使机器人无法建立蕴含场景信息的高精度地图,降低定位建图系统在复杂场景中的鲁棒性。针对目前主流动态SLAM技术受限于系统需求和硬件性能,无法兼顾移动机器人定位精度和系统实时性的问题,提出一种基于YOLO v3和传感器融合的机器人定位建图系统。首先,建立融合编码器和视觉传感器的机器人运动模型,求解移动机器人位姿;然后,利用深度学习技术剔除复杂场景中的动态物体,并针对YOLO v3目标检测网络特点,采用多视图几何方法进行性能优化;最后,经测试,本系统相比DSSLAM具有更优的轨迹精度,耗时更短。
- 单位