摘要

在自动驾驶、三维环境重建等场景中,近景视场中深度信息是控制策略、安全保障的关键依据。双目图像测量技术以其感知信息丰富、适用性广泛、便于利用现代信息技术分析的优势,逐渐成为了深度信息测量的主流技术。然而,近景视场下左右图像中对应像素点立体匹配范围大,现有的匹配算法计算复杂度高、测量精度较低、难以适用于近景视场。针对上述问题,论文设计了一种基于匹配约束无监督网络的双目深度测量算法,引入自注意力机制,设计匹配约束规则,摆脱了匹配范围的限制,提高像素匹配精度;同时将立体匹配的二维平面范围匹配降低为一维线性匹配,降低计算复杂度,适用于近景视场下的立体匹配;从图像重构、视差平滑、匹配约束特性三个角度设计损失函数,应用于无监督网络,加快网络收敛速度,不依赖于标注数据。通过在KITTI2012和KITTI2015数据集对算法的实验验证,论文算法能够突破匹配范围和标注数据的限制,实现深度信息的精确测量,尤其体现在近景视场区域。