摘要

使用Transformer架构的预训练模型进行对话情感识别时,用传统的微调分类方法难以充分考虑对话文本的语序和结构特征。而且情感对话分类任务与预训练任务不匹配。而使用提示学习方法可通过重建下游任务缩小情感对话分类任务与预训练任务之间的差距。因此,提出一种将提示学习与Roberta模型相融合的对话情感识别(PERC Roberta)模型。利用该模型通过文本掩码预测任务学习对话的语序和结构特征;然后通过提示学习重建下游任务,进一步激发学习到的丰富对话知识。将该模型在2个对话情感识别公共数据集上进行了实验,实验结果表明,PERC Roberta模型比其他模型具有更好的分类效果。此外,消融实验的对比结果也证明了所提模型的有效性。

全文