摘要
由于微表情持续时间短,通常使用高帧率相机进行拍摄以保证捕获微表情完整的动态信息。然而与常规动态表情不同,微表情的面部肌肉运动微弱,导致微表情视频序列中帧与帧的变化极小,从而导致深度学习模型难以有效表征微表情的时序动态变化信息。为了解决这一难题,本文提出了一种基于时空Transformer模型的微表情识别方法。该方法通过在时间和空间两个维度分别设计尺度划分和关联关系分析的联合建模机制,寻找与微表情具有强关联关系的时间序列片段以及空间局部区域,从而学习到具有高判别性的特征用于识别微表情。为了验证所提方法的有效性,在CASMEⅡ、SMIC-HS和SAMM这3个数据库上进行微表情识别实验。实验结果表明,相比当前先进的微表情识别方法,本文所提出的时空Transformer模型取得了更加优异的性能。
- 单位