摘要
本发明涉及一种基于多服务器的联邦学习系统,实现步骤S1、构建环形哈希空间;S2、在环形哈希空间为第s服务器划分对应的全局模型参数范围;S3、向每一客户端广播每一服务器对应的全局模型参数范围,控制每一服务器初始化对应的全局模型参数;S4、在第t轮训练中,第k参与客户端从每一服务器获取对应的全局模型参数;S5、每一客户端进行本地训练,根据每一服务器对应的全局模型参数范围向每一服务器发送对应的本地模型参数和本地数据量;S6、每一服务器基于本轮M个参与客户端发送的本地更新参数和本地数据量更新对应的本轮全局模型参数;S7、判断模型是否收敛,若收敛,则结束,否则,令t=t+1,返回S4。本发明提高了联邦学习模型训练的效率。
- 单位