摘要
基于视频的人体行为识别任务中由于大部分画面并不包含重要的判别信息,这对识别应用的准确性造成严重干扰。关键姿态帧既能表达视频又能降低计算量,且骨骼数据相比于图像包含更多维度的信息。因此,提出一种基于关键帧骨骼节点自适应分区与关联的行为识别算法。首先构建自适应池化深度网络以评估帧的重要性获取关键姿态帧序列;其次通过节点自学习模型建立非自然连接状态下的节点间关联;最后将改进的时空信息应用于STGCN并使用softmax分类识别。在开源的大规模数据集NTU-RGB+D和Kinetics上与几种典型技术进行比对,验证了所提方法在减少冗余数据量的同时能保留关键动作信息,且动作识别准确率平均提高了0.63%~11.81%。
- 单位