摘要

高分辨率图像具有特征尺度差异较大的特点,针对其造成的细粒度特征难以捕获、多尺度特征融合不佳问题,提出一种共享核空洞卷积与注意力引导(Kernel-Sharing Dilated Convolutions and Attention-guided FPN,KDA-FPN)的复杂场景文本检测方法;提出最小交集(Intersection Over Minimum,IOM)后处理策略,改善因文本长宽比变化较大特性导致的掩膜重叠现象,提升检测效果。首先,模型以Resnet50为主干网络采用FPN结构捕获多尺度特征;然后,利用空洞卷积扩大特征感受野,提高特征信息的多尺度捕获能力,深层次挖掘文本细粒度特征,并通过共享核手段减少模型参数量,降低计算成本;同时,采用上下文注意模块(Context Attention Module,CxAM)捕捉多感受野间的语义信息关系,通过内容注意模块(Content Attention Module,CnAM)精确定位目标位置信息,增强多尺度融合能力,提升特征图质量;最后,将同一文本区域预测的候选框按大小排列,提出将面积最大的框与相邻文本框之间区域的交集面积占较小框面积的比值作为候选框筛选指标,抑制检测结果的掩模重叠现象,实现文本的精准检测。采用ICDAR2013、ICDAR2015、TotalText数据集进行对比实验,实验结果表明,本文模型对于水平场景文本检测的精度和召回率分别为95.3和90.4;对于倾斜文本检测的精度和召回率分别为87.1和84.2;对于任意形状文本检测的精度和召回率分别为69.6和57.3。提出的算法有效克服了图像分辨率、文本形状与长度等因素的影响,提高了检测精度,得到了更为精准的文本边界。