摘要
在基于深度学习的单阶段目标检测中,从交并比出发的边界框回归损失对边界框位置关系变化敏感度不够,当预测框与真值框处于不同包含关系时,已有损失无法精确区分。针对上述问题,提出基于交并比(Intersection over Union,IoU)的回归位置关系敏感度损失(Regression Position Relationship Sensitivity IoU,RPIoU)。该损失设计强化了预测框和真值框相对位置关系的敏感度,首先在IoU后添加惩罚项,使两框的角点无限靠近,解决中心点重合时IoU退化的问题;其次引入非重叠区域面积与真值框面积比值为参数的指数函数作为惩罚项,解决损失无法区分预测框和真值框存在不同包含关系的问题,更精准的指导边框回归的位置。考虑到单阶段目标检测算法总损失各部分对于训练结果的贡献度不同,以平均精度均值作为适应度函数,利用遗传算法对训练总损失进行优化,得到分类、回归、置信度损失的各自最佳权重。将设计的损失应用于单阶段目标检测算法YOLOv5,分别在公开可见光公开数据集VisDrone和自制红外飞机数据集上进行验证。在可见光公开数据集上的mAP达到44.7%,比原始YOLOv5提升3.7%。在红外飞机数据集的mAP达到96.6%,比原始YOLOv5提升1.4%。
- 单位