摘要

在人机交互领域,精确的人手指尖检测对交互的丰富度、灵活度有很大影响。然而,由于指尖的尺寸较小,精确、鲁棒的指尖检测目前仍然是一项颇具挑战性的任务。为了提升指尖检测的准确率与实时性,提出一种基于深度卷积神经网络的指尖检测模型UGF-Net(Unified-Gesture-and-Fingertip- Network)。该模型可以同时进行指尖检测与手势识别,利用YOLO算法来提取手势区域,通过FCNN输出可视化高斯热图来实现指尖检测。最后通过实验验证本文指尖检测模型的有效性和鲁棒性,在SCUT-Ego-Gesture数据集上对模型进行了测试,结果表明,指尖检测的准确率可达到99.8%,且实时视频图像的平均帧率达到34.5 fps,满足实时性的要求。