深度学习模型通常限定在固定数据集中进行训练,训练完成之后模型无法随着时间而扩展其行为.将已训练好的模型在新数据上训练,会出现灾难性遗忘现象.持续学习是一种能够缓解深度学习模型灾难性遗忘的机器学习方法,它旨在不断扩展模型的适应能力,让模型能够在不同时刻学习不同任务的知识.目前,持续学习算法主要分为4大方面,分别是正则化方法、记忆回放方法、参数孤立方法和综合方法.对这4类方法的研究进展进行了系统地总结与分析,梳理了衡量持续学习算法性能的评估方法,讨论了持续学习的新兴研究趋势.