摘要
现有基于学习的立体匹配算法具有一定局限性,通常特征提取部分使用的常规卷积倾向于捕捉外观信息,忽略了结构信息的提取,并且由于卷积感受野的限制,这些算法在弱纹理、重复纹理等病态区域性能较差。为此本文提出了一种融合梯度信息及全局代价聚合的立体匹配网络模型(GFGANet)。首先,设计了差分卷积残差组(CDC-ResBlock-Groups),显式编码结构信息提高特征表达,然后设计全局代价聚合模块(Trans-Hourglass),有效聚合代价体并捕获全局上下文,最后采用加窗视差回归降低了视差标签不平衡的影响,此外使用StereoDRNet的后处理进行视差细化。实验表明,所提方法在重复纹理,弱纹理区域表现优异,在SceneFlow中的端点误差(EPE)仅为0.645px,KITTI 2015上的误匹配率为2.04%,与基础模型PSMNet相比,性能显著提升。
-
单位通信与信息工程学院; 重庆邮电大学