摘要
在联邦学习中,中心服务器聚和来自不同的客户端经过差分隐私扰动后的模型,其中差分隐私噪声添加的大小和隐私预算的分配直接影响到模型的可用性,现有的研究大多基于平衡的数据和固定的隐私预算,在处理多源不平衡数据时难以权衡精度与隐私保护水平,针对此问题提出了一种具有自适应差分隐私噪声添加的联邦学习框架,采取基于沙普利值的贡献度证明算法计算不同数据来源的客户端的贡献度,并依据贡献度为不同客户端在梯度更新的过程中添加差异化的差分隐私噪声,继而实现个性化的隐私保护。理论和实验分析表明该框架面对多源不平衡数据时不仅可以为不同参与方提供更加细化的隐私保护水平,同时在模型性能方面也比传统的FL-DP算法高出1.3%。
- 单位