摘要
本发明提出的一种基于特征自学习的大场景极小目标遥感视频跟踪方法,主要解决了现有视频跟踪算法存在的计算复杂度高、跟踪精度低问题。其方案包括:1)获取极小目标特征自学习网络的初始训练集;2)构建极小目标特征自学习网络;3)构建特征自学习网络的损失函数;4)根据损失函数训练网络得到极小目标特征自学习模型;5)输入测试集图像,得到遥感视频目标跟踪结果。本发明使用特征自学习网络学习极小目标的外观特征、预测目标位置,避免了传统跟踪方法常用的前期处理过程,有效减小了网络复杂性,且极大的提高了超模糊的大场景遥感视频中极小目标的定位准确性。
- 单位