中文分词是自然语言处理的常见任务之一。在跨领域分词任务中,目标领域的数据分布不同及数据量不足通常导致分词效果急剧下降。基于该问题,本文通过引入了迁移学习、对抗学习和正交约束以减轻共享和私有特征之间的干扰,提出了一种基于特征迁移的跨领域中文分词模型,能够在跨领域和小数据量条件下,借鉴数据量较大的源领域的知识来进行学习,实验证明该模型最终获得了出色的表现。