摘要
随着深度学习理论的不断进步,端到端的立体匹配网络在自动驾驶和深度传感等领域取得了显著的成果。然而,最先进的立体匹配算法仍然无法精确恢复物体的边缘轮廓信息。为了提高视差预测的精度,在本研究中,提出了一种基于边缘检测与注意力机制的立体匹配算法。该算法从立体图像对中学习视差信息,并支持视差图和边缘图的端到端多任务预测。为了充分利用二维特征提取网络学习到的边缘信息,本算法提出了一种全新的边缘检测分支和多特征融合匹配代价卷。结果表明,基于本文模型的边缘检测方案有助于提高视差估计的精度,所获取的视差图在KITTI 2015测试平台上的误匹配率为1.75%,与金字塔立体匹配网络相比,视差图的精度提高了12%,且运行时间减少约20%。
- 单位