摘要

联邦学习主要通过源数据不出本地而仅交互模型参数的方式保护参与共享用户数据的隐私安全,然而其仍然面临众多安全挑战,目前研究者主要针对如何增强模型隐私保护和检测恶意模型攻击等问题展开较为广泛的研究,然而利用联邦学习过程中频繁交互的模型数据进行恶意代码夹带导致风险扩散的问题鲜有研究。针对联邦学习训练过程中通过模型传递恶意代码导致风险扩散的问题,提出一种基于模型相似度的模型恶意代码夹带检测方法。通过分析联邦学习本地模型与全局模型的迭代过程,提出计算模型距离的方法,并使用模型距离量化模型之间的相似度,最终根据各客户端模型之间的相似度对携带恶意代码的模型进行检测。实验结果表明,提出的检测方法具有较好的性能指标,当训练集为独立同分布时,在178MB大小的模型中嵌入0.375 MB恶意代码,检测方法的真正率为82.9%,误报率为1.8%;嵌入0.75 MB恶意代码时,检测方法的真正率为96.6%,误报率为0.38%。当训练集为非独立同分布时,检测方法的准确率随恶意代码嵌入率以及联邦学习训练轮数的增加而增加。在对恶意代码进行加密的情况下,提出的检测方法仍然能够达到90%以上的准确率。在多攻击者的场景中,攻击者数量已知与未知时的检测方法准确率均能保持在90%左右。

  • 单位
    信息工程大学