摘要
近年来基于RGB视频的双人交互行为识别取得了重大进展,但RGB视频数据的问题严重影响双人交互行为识别率。随着深度传感器(如微软Kinect)的快速发展,为准确获取人体运动的关节点数据提供了可能,可以大大的弥补RGB视频数据的不足。提出一种基于关节点数据的双人交互行为识别方法。首先对关节点数据计算出HOJ3D特征和关节距离特征,并将特征按照时间顺序进行图形化后分别送入的卷积神经网络中,分别提取两种深层次特征并进行拼接,然后使用Softmax分类器进行分类识别。该方法在SBU Kinect动作数据集的测试结果表明,该方法的识别准确率得到了一定的提高,达到了94.4%。该方法实现简单,且具有实时处理的能力,具有较好的应用前景。
- 单位