摘要
为了提高立体视觉的深度估计准确性和运行效率,提出了基于二元视差分割和3D卷积的立体匹配方法。首先,从立体图像中提取特征,并将特征馈入到分割模块;然后,针对每个视差平面单独运行3D卷积模块,检测目标是否比给定距离更近,或根据某个粗略量级进行深度估计;最后,利用3D卷积层估计二元分割模块的输出,通过精细化处理后,得到最终的视差图。实验结果表明,所提方法在SceneFlow数据集的3-px误差为4.37%,EPE误差为1.06 pixel;在KITTI2015数据集上的小额误差接近深度引导聚合网络(GA-Net)方法。且所提方法在不同深度量化级别的运行效率最高。
- 单位