摘要
针对现有基于深度学习的遥感智能解译方法直接获取全局信息具有挑战性,从而造成地物边缘模糊、相似类间分类精度低等问题,本研究提出了基于Swin Transformer和卷积神经网络的高分遥感图像语义分割模型SRAU-Net。SRAU-Net以Swin Transformer编码器-解码器框架为基础,采用U-Net形状,提出了以下改进:(1)构造基于Swin Transformer和基于卷积神经网络的双分支编码器,用不同尺度空间细节特征补充具有全局信息的上下文特征以获得更高的地物分类精度和更清晰的地物边缘;(2)设计特征融合模块,作为双分支编码器的桥梁从通道和空间维度对全局和局部特征进行有效融合提升小目标地物的分割精度;(3)特征增强模块,利用注意力机制自适应融合分别来自编码器和解码器的特征,进一步有效聚合空间和语义特征,提升模型对特征的提取效果。结果表明,SRAU-Net能够更好地提取地物的边缘信息,总体分类精度较原始模型提升了2.57%,提高小尺度地物的分类精度,有效区分如树木和低矮植被等类间相似性的遥感地物,总体精度和F1分数分别为92.60%、86.90%,总体效果优于对比模型。
- 单位