摘要
为有效融合RGB图像和深度图像特征信息,提出了一种基于ResNet网络改进并引入注意力机制的图像语义分割方法。首先在RGB特征提取通道加入优化残差模块(RRB),用来优化通道特征;然后在特征融合通道中采用注意力机制来加强网络对重要特征的学习和关注,改善网络的分割精度;最后引入多分支架构,在有效收集重要信息的同时保留原始RGB-D特征。此外,使用focal loss损失函数来解决语义分割任务中样本类别不均衡问题,使网络生成更加精确的语义分割结果。实验结果表明,与现有的AcNet语义分割算法相比,改进后的算法在NYUDv2和SUN-RGBD数据集上的平均交并比分别达到了52.48%和52.11%,分割精度有所提高。
- 单位