摘要
卷积神经网络(CNNs)在高光谱图像分类中已经取得了令人瞩目的成果。但由于卷积运算的局限性,CNNs并不能很好的进行上下文信息交互。为了解决远距离捕获高光谱序列关系的问题,在本文中,我们将Transformer用于高光谱分类。提出了一种基于Swin Transformer的多尺度混合光谱注意力模型(SMSaNet)。在提出的SMSaNet中使用多尺度光谱增强残差融合模块和光谱注意力模块对光谱特征进行建模,使用改进的Swin Transformer模块来提取空间特征,最后使用全连接层实现对高光谱图像的分类。在两个公开数据集Indian Pines和University of Pavia上将SMSaNet与其它的5种分类方法进行对比实验,结果表明SMSaNet获得了最优的分类效果,总体分类精度分别达到了99.51%和99.56%。
- 单位