摘要
鉴于传统自适应阈值分割方法在检测中无法根据镜框粗细、颜色深浅以及拍摄背景复杂程度自适应双阈值门限。现采用深度学习中的CenterNet模型,通过MobileNetV3中的bneck结构堆叠,组成CenterNet模型的主干特征提取部分,从用户图片中获得镜框和眼睛的类别信息、位置信息,最后通过相对位置关系计算出测量要求的相应尺寸。该过程无需对图像进行阈值分割,实现了非结构化场景中镜框尺寸的快速测量。实验结果表明,该方法不受镜框粗细以及拍摄背景的影响,检测精度高达98.01%,每秒处理图片的数量(frames per second, FPS)达到15帧/秒,训练后的权重文件从152 MB减小到47 MB,并有较强的泛化能力。
- 单位