摘要

关系抽取是信息抽取的重要任务之一。当前最先进的关系抽取方法依赖于语义、句法特征,然而这些特征需要大量标注资源,特征提取步骤还会引入额外的错误,导致误差传播。最近,一种新的语言表示模型BERT能够在大型无监督语料上预训练深度双向表示,并在各种自然语言处理任务取得了先进的结果。本文提出了基于bert模型的关系抽取方法。实验结果表明,本文提出的方法在不使用额外特征的条件下能够有效捕捉语言的深层信息,获得较高的关系抽取效果。