联邦学习隐私模型发布综述

作者:石聪聪; 高先周; 黄秀丽; 毛云龙
来源:南京信息工程大学学报(自然科学版), 2021, 1-14.

摘要

联邦学习这一类分布式机器学习技术旨在保证使用大数据进行机器学习训练时保护本地数据不泄露。然而一系列机器学习隐私攻击表明,即使不直接暴露本地数据,仅仅通过获取机器学习模型的参数就可以进行数据隐私的窃取。从训练时参与者和聚合端之间传递的中间模型到最后发布的聚合模型,联邦学习的模型发布过程存在诸多隐私威胁。由此出现了大量相关的保护技术,包括基于差分隐私以及基于密码学的联邦学习隐私保护技术。本文针对联邦学习本地模型和聚合模型发布过程中可能出现的各种隐私威胁和敌手模型进行了简要介绍,并且对相关的防御技术和研究成果进行系统性综述。同时也对相关技术在联邦学习隐私保护中的发展趋势进行了展望。