摘要
传统场景分类模型不能轻量高效地完成遥感图像中多尺度的关键特征提取,深度学习方法普遍存在计算量大、收敛速度慢等缺点。针对以上问题,本文充分利用CNN结构和Transformer结构对不同尺度特征的提取能力,提出了一种全局-局部特征提取模块(global and local features fused block, GLFF),并基于此模块设计了一个轻量级遥感图像场景分类模型(GLFFNet),该模型具有较好的局部信息和全局信息提取能力。为了验证GLFFNet的有效性,本文使用开源遥感图像数据集RSSCN7与SIRI-WHU测试GLFFNet与其他深度学习网络的复杂度和识别能力。最终,GLFFNet在RSSCN7与SIRI-WHU数据集上分别取得了高达94.82%和95.83%的识别准确率,优于其他先进的模型。
-
单位长沙理工大学; 长沙市竟网信息科技有限公司; 湖南神帆科技有限公司