摘要

主流的联邦学习系统都基于一个不现实的假设:客户端的数据都有标签。然而,客户端的数据一般是没有丰富的真实标签。此外,数据异构性(即non-IID问题)是联邦学习系统面临的挑战之一。针对标签数据在服务器,客户端只有无标签数据的场景设计了一个半监督联邦学习系统来解决联邦学习中数据可用性和数据异构问题。提出了一种模型分解策略,称为联邦混合(FedMix),该策略对在标签数据和无标签数据上学习到的模型进行分离学习。为了缓解non-IID问题,提出了一种新的聚合规则,称为FedLoss,该规则根据每个客户端的模型损失函数值去动态的调整局部模型在全局模型中所占的权重。实验结果表明该系统的性能优于当前主流的解决方案,且对不同non-IID水平的客户端数据具有鲁棒性。

全文