摘要
为实现复杂场景下移动机器人视觉定位和建图,解决传统方法误差累积及鲁棒性差的问题,提出了融合深度学习和结构特征的视觉定位方法。首先,引入注意力机制改进深度学习网络,提取场景语义信息,剔除动态特征对定位及建图的干扰;其次,结合场景中的特征点、特征线和特征面信息,综合考虑空间的几何结构信息,实现复杂场景下的结构化特征融合;然后,计算多特征融合的视觉词袋模型,提升非线性优化和闭环检测的准确性;最后,提出静态关键帧策略,通过特征匹配实现位姿跟踪,建立无重影的八叉树场景地图,实现机器人自主定位和导航。数据集和真实场景实验表明:改进方法提升了复杂场景下,移动机器人视觉定位的准确性和鲁棒性。
- 单位