摘要
对话情感分类和对话行为识别是对话系统中的两个子任务,旨在预测对话中每个语句的情感标签和行为标签.这两个任务受多种因素的影响而密切相关,而现有的模型没有合理利用对话中包含的显式和隐式信息,如说话者信息,时间信息,标签信息等,并且两个相关任务之间缺乏有效的交互.为了解决上述问题,本文提出了一个新的多任务学习模型,即说话者感知跨任务协同交互图网络(Speaker-aware Cross-task Co-interactive Graph Network, SA-CCGN).该模型首先捕捉了说话者随时间变化的情感和行为线索,以生成说话者感知的语句表示,然后通过跨任务协同交互图网络来充分建模对话内的信息传播和任务间的信息交互,其中,通过构建一个有向无环图来模拟一个对话的信息传播,每一次图传播后,使用协同交互层对两个任务进行适当的交互.最后,在解码时引入标签信息,即标签之间的区分度和关联性,对模型训练进行约束.在两个公开数据集上的实验结果表明,该模型相较于目前最先进的联合模型,在对话情感分类任务上的F1值分别提高了4.57%和3.33%,在对话行为识别任务上的F1值分别提高了2.15%和0.63%,而参数量和内存使用降低了约1/2.
- 单位