摘要

城市场景分割等复杂任务,存在特征图空间信息利用率低下、分割边界不够精准以及网络参数量过大的问题。为解决这些问题,提出了一种基于对偶学习的场景分割模型DualSeg。首先采用深度可分离卷积使得模型参数量显著减少;其次,融合空洞金字塔池化与双重注意力机制模块获取准确的上下文信息;最后,利用对偶学习构建闭环反馈网络,通过对偶关系约束映射空间,同时训练“图像场景分割”和“对偶图像重建”两个任务,能够辅助场景分割模型的训练,帮助模型更好地感知类别边界、提高识别能力。实验结果表明,基于Xception骨架网络的DualSeg模型在自然场景分割数据集PASCAL VOC中,mIoU和全局准确率分别达到了81.3%和95.1%,在CityScapes数据集上mIoU达到了77.4%,并且模型参数量下降18.45%,验证了模型的有效性。后续将探索更有效的注意力机制,进一步提高分割精度。