摘要

在数据非独立分布的情况下,联邦学习每一轮通信中将局部模型聚合成一个全局模型的过程将会导致异质性,并给联邦学习训练带来巨大的挑战.除此之外,由网络带宽不同或者客户端设备的训练速度的不同导致的部分设备参与加剧了这种异质性.仅通过局部模型的简单加权聚合会导致与真正的全局模型的进一步偏差,后者会收敛到局部极值点并在收敛过程中振荡.基于这些发现,本文提出了一种新的聚合算法--联邦累积学习算法(FedAcc),该算法在服务端通过聚合延迟的客户端的梯度信息以指导下一轮的服务端梯度更新,从而实现更健壮和更精确的聚合.实验结果表明,与FedAvg、FedAdam和FedAsync等几种优秀的联邦学习算法相比,FedAcc算法具有更好的综合性能.

全文