摘要
传统视觉SLAM的各种算法在静态场景中能够取得很好的特征匹配,而在动态场景中会出现误匹配,从而使得SLAM系统的定位和建图产生很大的误差。因此,提出了一种基于语义特征点的视觉里程计算法,能够提高动态场景下的定位精度。该算法首先通过特征点的语义信息和稀疏光流法相结合来剔除动态特征点,然后在特征点匹配阶段使用语义信息优化特征点匹配。在TUM数据集上对系统进行广泛的评估,并将其与ORB-SLAM3和其他动态场景SLAM算法进行了比较。实验结果表明,在高度复杂的动态环境下,该算法大大提高了相机的定位精度和系统的鲁棒性,验证了该算法的先进性和有效性。
- 单位