摘要
针对现有视觉目标跟踪方法精度不高的实际问题,提出了一种融合改进YOLOv2网络的视觉多目标跟踪方法.首先,优化了原有YOLOv2网络结构以提高视觉多目标检测的可靠性.然后,结合Deep-SORT的多目标实时跟踪方法克服了YOLOv2在检测阶段存在的帧间信息被忽略的缺陷.针对目标遮挡情况,提出了目标状态变化率修正策略,移植轻量级神经网络的深度可分离卷积取代特征提取网络中的普通卷积,提高了跟踪的整体性能.最后,采用运动匹配与表观匹配加权融合的方法确定目标的最优位置,实现视觉多目标跟踪.
-
单位辽宁工业大学