摘要
目前大多数注意力机制模块在提高深度学习模型应用精度的同时也带来了模型复杂度增加的缺陷。针对这一问题,本文提出了一种轻量化高精度双通道注意力机制模块(Efficient Dual-channel Attention Mechanism Module, EDCA)。EDCA将特征图分别沿通道、宽度和高度三个方向压缩并重新排列组合,采用一维卷积获取组合后的权重信息,接着将权重信息分割并应用于对应维度以获得特征关注度。本文在图像分类数据集miniImageNet与目标检测数据集VOC2007上对EDCA进行充分实验,实验结果表明,与SENet,CBAM,SGE,ECA-Net,Coordinate Attention相比,EDCA所需的计算量以及参数量更少。在miniImageNet数据集上使用ResNet50+EDCA时,Top-1精度较以上方法分别提升2.43%、1.58%、2.21%、2.25%、1.41%;在VOC2007数据集上使用MobileNetV3+YOLOv4+EDCA时,AP50较SENet,CBAM,ECA-Net,Coordinate Attention分别提升0.94%、0.46%、0.59%、0.14%。
- 单位