摘要

神经网络在连续学习多个任务时,随着学习任务数的增多,学习能力降低,之前学会的知识被覆盖产生灾难性遗忘。针对这一问题,提出了一种结合HAT与生成对抗学习(GAL)的HAT-GAL模型。将GAL嵌入HAT网络全连接层中,解决网络随任务数增多学习能力降低以及对多姿态数据鲁棒性差的问题。同时,结合进化策略进行网络参数寻优,有效缓解参数冗余,易陷入局部最优导致的遗忘问题。实验结果表明,改进的HAT-GAL模型对多姿态数据具有很好的普适性,并且连续学习多个任务后学习能力不下降,遗忘率较小。

全文