摘要

实体关系分类作为自然语言处理的基础任务,对知识图谱、智能问答、语义网构建等任务都起到了非常关键的作用。文中构建了BERT-GRU-ATT模型,以进行中文实体关系分类。为消除中文分词歧义对实体关系分类的影响,引入预训练模型BERT作为嵌入层,以较好地获得汉字的上下文信息;再通过双向门控循环单元捕获实体在句子中的长距离依赖,通过自注意力机制加强对关系分类贡献明显的字的权重,从而获得较好的实体关系分类结果。为了丰富中文实体关系分类语料,将SemEval2010_Task8英文实体关系评测语料翻译为中文1),该模型在此翻译语料上取得了75.46%的F1值,说明了所提模型的有效性。此外,所提模型在SemEval2010-task8英文数据集上F1值达到了80.55%,证明该模型对英文语料具有一定的泛化能力。