一种基于视差优化的立体匹配算法

作者:刘建国; 纪郭; 颜伏伍; 沈建宏; 孙云飞
来源:计算机工程, 2021, 1-11.
DOI:10.19678/j.issn.1000-3428.0060806

摘要

现有的立体匹配算法通常采用深层卷积神经网络提取特征,这种深层特征对于前景物体的检测更加精细,但对于背景中的小物体及边缘区域匹配效果较差。为了提高这些挑战性区域中的视差估计质量,文中提出一个基于视差优化的立体匹配网络CTFNet(Coarse To Fine Net)。此网络分别提取浅层与深层特征,基于深层特征构建全局稀疏代价卷预测初始视差图,然后基于预测的初始视差图和浅层特征构建局部稠密代价卷进行视差优化,细化预测视差值邻域的概率分布,提高特征不明显区域的匹配精度。同时文中引入新的概率分布损失函数,监督softmax函数计算的视差值概率分布在真实视差值附近成单峰分布,提高算法的鲁棒性。本文算法在SceneFlow和KITTI数据集上分别实现了0.768%和1.485%的误匹配率,同时在KITTI测评网站上误差率仅为2.20%,与参考算法PSMNet相比,精度和速度都得到一定提升。

  • 单位
    武汉理工大学; 宁波华德汽车零部件有限公司; 现代汽车零部件技术湖北省重点实验室

全文