机器视觉等相关的应用因为其优异的性能被广泛使用,但由于客户数据隐私问题而不能获得优质的数据进行训练得到更好的模型。联邦学习在保护数据隐私的前提下,使用协同训练的方式获取共享模型,但将损耗巨量通信资源。本文提出了一个基于类平衡损失的联邦学习框架,通过对数据类的重加权达到加速模型收敛的目的。在Fashion-MNIST仅需2个通信回合即可达到89%的目标精度,相应于基线算法降低了114个通信回合,而收敛时模型精度达到99.19%。本文最后讨论了客户资源和并行性对算法性能的影响。