摘要
针对大场景三维重建中,由位姿估计的累积误差而导致的相机漂移和重建模型质量低的问题,提出了减少累积误差的方法。首先,基于由最新K对深度和彩色图像融合的模型,最小化输入RGB-D图像的几何误差和亮度误差来跟踪相机。然后,若相机位置与当前子网格的中心点距离大于给定阈值时,则将子网格平移体素单元整数倍的距离,基于新建的子网格继续跟踪相机并重建局部场景模型。最后,在子网格间以迭代步长式的方法寻找对应表面点,以对应点间的欧氏距离与亮度误差为约束,优化全局相机轨迹。基于数据集的实验结果表明,相机位姿估计精度比主流方法提升14.1%,全局轨迹优化精度提升8%。对于自采数据,本文设计的系统可减少位姿估计中的累积误差、重建高质量的场景模型。
- 单位