摘要

联邦学习是一种能够保护数据隐私的机器学习设置,但是高昂的通信成本和客户端的异质性问题成为了阻碍联邦学习规模化落地的主要问题。针对这两个问题,提出了一种面向通信成本优化的联邦学习算法。首先,服务器接收来自客户端的生成模型并生成模拟数据,然后,服务器利用模拟数据训练全局模型并将其发送给客户端,客户端利用全局模型进行微调后得到最终模型。所提算法仅需要客户端与服务器之间的一轮通信,并且利用微调客户端模型来解决客户端异质性问题。在客户端数量为20个时,在MNIST和CIFAR-10这两个数据集上进行了实验。与联邦平均(FedAvg),FedProx,FedMD和FedDyn算法相比,所提算法能够在保证准确率的前提下,将通信的数据量减少至原先的1/10和1/100。