摘要

目前基于通用YOLO(you only look once)系列的遥感目标检测算法存在并未充分利用图像的全局上下文信息,在特征融合金字塔部分并未充分考虑缩小融合特征之间的语义鸿沟,抑制冗余信息干扰的缺点,导致遥感场景下算法检测精度不高。GUS-YOLO(The network of global context extraction unit and attention gate-based YOLO)算法针对遥感目标检测场景下的特点,主干网络Global Backbone部分引入global context block用以加强全局上下文信息提取能力;为加强浅层信息融合效果,在模型特征金字塔自顶向下部分引入能提高局部特征抑制非感兴趣特征的 Attention Gate模块;另外该算法研究了Attention Gate模块不同的接入方式对网络性能的影响,并在此基础上优化设计了特征融合结构U-neck。最后,为克服ReLu函数可能导致模型梯度不再更新的问题,该算法将Attention Gate模块的激活函数升级为可学习的SMU激活函数,提高模型鲁棒性。在NWPU VHR-10遥感数据集上,该算法相较于YOLOV7取得宽松指标1.64% mAP0.5和严格指标9.39% mAP0.75的性能提升。相较于目前主流的7种检测算法而言,本文算法取得较好的检测性能。