多类型知识增强的微博立场检测模型

作者:王天雨; 袁嘉伟; 齐芮; 李洋*
来源:广西师范大学学报(自然科学版), 2023, 1-13.
DOI:10.16088/j.issn.1001-6600.2023050808

摘要

针对文本立场检测中目标话题在微博文本中隐式出现以及文本语义隐含表达这2个核心问题,本文提出一种基于多类型知识增强与预训练语言模型相结合的立场检测新方法KE-BERT。该模型同时从知识图谱和百度百科中引入多类型的相关常识知识来弥补语义的缺失,使用改进的预训练语言模型BERT作为编码器,然后通过卷积注意力机制对常识知识进行融合与聚焦,最后通过Softmax分类获得立场。该模型在NLPCC-2016语料库上实验的宏平均F1值达到0.803,分类性能超越现有方法,验证了模型的有效性。

全文