基于变分自编码器的联邦学习性能增强方法及系统

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
基于变分自编码器的联邦学习性能增强方法及系统
申请号:CN202411536535
申请日期:2024-10-31
公开号:CN119443207A
公开日期:2025-02-14
类型:发明专利
摘要
本申请公开一种基于变分自编码器的联邦学习性能增强方法及系统,包括如下步骤:初始化变分自编码器的模型参数;构建基于变分自编码器的联邦学习优化算法,初始化神经网络模型;将数据集进行划分,为每个客户端分配训练集;使用训练集训练神经网络模型,并且在每一轮联邦学习聚合的过程中更新模型参数,并下发给客户端;客户端训练编码器参数,更新隐空间Z和解码器参数,并上传至服务器端;服务器端采用蒸馏技术将客户端的解码器作为教师模型,训练出全局解码器;使用交叉注意力机制对更新后的全局解码器进行处理;将模型参数进行加权平均,并且不断迭代完成训练;本申请在保证客户隐私的同时显著提升了整体模型框架的性能和准确率。
技术关键词
交叉注意力机制 编码器参数 客户端 训练集 更新模型参数 输出特征 蒸馏 训练神经网络模型 更新解码器 数据分布 教师 梯度下降法 模块 生成特征