摘要
本申请公开一种基于变分自编码器的联邦学习性能增强方法及系统,包括如下步骤:初始化变分自编码器的模型参数;构建基于变分自编码器的联邦学习优化算法,初始化神经网络模型;将数据集进行划分,为每个客户端分配训练集;使用训练集训练神经网络模型,并且在每一轮联邦学习聚合的过程中更新模型参数,并下发给客户端;客户端训练编码器参数,更新隐空间Z和解码器参数,并上传至服务器端;服务器端采用蒸馏技术将客户端的解码器作为教师模型,训练出全局解码器;使用交叉注意力机制对更新后的全局解码器进行处理;将模型参数进行加权平均,并且不断迭代完成训练;本申请在保证客户隐私的同时显著提升了整体模型框架的性能和准确率。