摘要

随着边缘设备计算能力的不断增强,联合学习(Federated Learning,FL)应运而生,它可以在不考虑隐私问题的情况下进行模型训练。现有的大多数研究都假设数据在客户端是完全标记的。然而,在实践中,标记的数据量是有限的。近年来,联合半监督学习(Federated Semi-Supervised Learning,FSSL)被认为是一种在训练过程中有效利用未标记数据的方法。文章提出了一种新的基于联合半监督学习的方法。在该方法中,客户之间通过轻量级原型进行知识共享,避免了局部模型的发散。为了计算未标记数据的损失,每个客户端基于共享原型创建准确的伪标签。伪标签与标记数据一起为局部原型提供训练信号。与基于权重共享的FSSL方法相比,基于原型的客户间知识共享显著降低了通信和计算成本,使更多客户之间能够更频繁地共享知识,从而提高了准确性。在多个数据集上,与最近的有无知识共享的FSSL方法(如FixMatch、FedRGD和FedMatch)相比,该方法具有更高的准确率,在SVHN数据集上性能与完全受监督的FL方法相当。