摘要

针对RGB-D视觉里程计在定位精度上存在的不足,提出一种融合PnP(Perspective-n-Point)与ICP(Iterative Closest Point)的视觉里程计算法。由改进四叉树均匀算法实现ORB特征均匀提取,提高了匹配准确率,减小了误匹配引起的位姿估计误差。运用三角测量将3D-2D模型中深度缺失的特征点添加到运动估计中,结合基于3D-3D模型的ICP配准算法,采用光束平差法建立优化模型,利用g2o优化库进行机器人位姿的优化。在基于Kinect相机的移动机器人平台上进行验证,实验证明了该方法在满足实时性要求的同时有效提高了视觉里程计的精确性。