为提高跨领域依存句法分析性能,提出一种领域嵌入的半监督方法。该方法对于模型的所有输入添加一个领域信息,平衡源领域和目标领域对模型的贡献,与直接合并两个领域训练集相比,取得了约1.5%的提升。进而,通过预训练和微调两种方法将上下文相关的语言模型BERT应用到该任务中。与选择的三个目标领域目前最好的性能相比,均取得了提升。