针对现有的Transformer预测时序模型中受异常值的影响、难以捕捉长期依赖关系的问题,对传统的Transformer模型进行了改进,在Transformer模型中增加了新的注意力模块,并进行了时序卷积操作。实验表明,新的模型较原来的Transformer模型及一些在时序预测领域的先进模型具有更低的预测误差,可以在多个实际应用领域展现出良好的效果。