摘要
【目的】针对室内场景中的复杂光照、多样化的材质以及空间结构,现有的RGBD语义分割算法未能充分利用深度图像提供的形状信息,且计算成本高等问题,提出一种基于SwiftNet面向室内RGBD场景高效语义分割方法。【方法】首先,在轻量级多尺度道路RGB场景语义分割算法(SwiftNet)中引入深度图像,通过利用深度图像的颜色稳定性和其为每个像素提供的到相机的距离信息,能够降低光线、颜色和距离等因素对分割结果的影响;然后,针对深度图像的几何形状特征进行专门提取,把深度特征分解为位置分量和形状分量,同时引入两个可学习权重以独立地与它们协作,再对这两个分量的重新加权组合应用卷积获取深度数据中固有的几何形状信息,不会在推理阶段引入计算和内存增加;最后,为了更快地捕捉更丰富的上下文信息,改进深度聚合金字塔池化模块使其并行提取上下文信息,称为快速聚合金字塔池化模块(FAPPM)。【结果】通过在公共室内数据集NYUv2和SUNRGBD上的评估实验。结果表明,相较于当前表现良好的ESANet模型,在两数据集上分别获得的2.21%和3.2%的MIoU提升,同时能够达到33.36的FPS。【结论】验证了该算法在处理复杂的室内环境语义分割中展现出的高效与准确性,为室内应用的后续智能机器人任务提供了良好的支持。
- 单位