提出一种基于语法的代码生成模型,该模型具有选择性局部注意力和包含前序信息的长短期记忆(LSTM)神经网络解码器,通过更改上下文向量的计算范围,并在解码过程中融合更多的前序信息,增强单词之间的相关性。在Hearthstone和Django两个数据集上进行的代码生成实验证实了所提模型的有效性,与最新的模型相比,所提模型不仅表现出更出色的准确率和双语评估学习成绩,还可以使计算工作量最小化。