本文主要探索了GPT-2模型在学习文言文特征方面的表现,主要以小数据集的文言文样本对GPT-2模型进行了训练、测试,并与LSTM、Sequencetosequence等其它方法生成的文言文进行了比较研究。结果表明构建四种不同模型,采用两种不同的生成方法进行样本生成,将所生成的样本进行随机选取,不同模型不同生成方法各保存两个样本,将样本保存并归类。生成样本评价表明GPT-2模型具有优越性。