本文选用3D卷积神经网络提取特征,并提出了一种基于数据挖掘的模型——行为模式树(ActionPatternTree,APTree),通过分析动作模式,并对动作分类进行二次概率估计来获得更高的识别率。该模型充分考虑到视频中动作的时序性,能够对一段动作进行时间和空间上的建模。行为模式树基于数据挖掘,用于视频的动作识别,简单、紧凑而又高效。本文在UCF101数据集上进行实验并取得了87.13%的准确率,证明了行为模式树的有效性。