摘要

由于MonoDepth2的提出,无监督单目测距在可见光领域取得了重大发展。然而在某些场景例如夜间以及一些低能见度的环境,可见光并不适用,而红外热成像可以在夜间和低能见度条件下获得清晰的目标图像,因此对于红外图像的深度估计显得尤为必要。但是由于可见光和红外图像的特性不同,直接将现有可见光单目深度估计算法迁移到红外图像是不合理的。针对该问题,将MonoDepth2算法进行改进之后提出了基于多尺度特征融合的红外单目测距算法。首先针对红外图像低纹理的特性设计了一项新的损失函数:边缘损失函数,旨在降低图像重投影时的像素误匹配。另外,由于以往的无监督单目测距单纯的将四个尺度的深度图统一上采样到原图像分辨率计算投影误差,忽略了尺度之间的关联性以及不同尺度之间的贡献差异,因此本文将加权的双向特征金字塔网络(BiFPN)应用于多尺度深度图的特征融合,解决了深度图边缘模糊问题。另外将跨阶段部分网络(CSPNet)替换残差网络(ResNet)结构,降低网络复杂度提高运算速度。实验结果表明,边缘损失更适合红外图像测距,使得深度图质量更高,在加入BiFPN结构之后,深度图像的边缘更加清晰,将ResNet替换为CSPNet之后,推理速度提高了大约20个百分点。该算法能够准确的估计出红外图像的深度,令夜间低光照场景以及一些低能见度场景下的深度估计难题得以解决。该算法的应用也可以在一定程度上降低汽车辅助驾驶的成本。