摘要
本发明公开了一种面向异构数据的联邦学习模型微调方法及系统,属于人工智能技术领域,该微调方法具体步骤如下:S101:各客户端对一个随机初始化参数的深度学习模型进行本地训练,直至在在本地数据集上达到收敛标准;本发明能够缩小联邦训练的迭代轮数,减小通信成本,使本地模型在训练的前期向微调后的全局模型对齐,减小权重分歧,在训练后期减小对其参数更新的约束有利于跳出局部最优解,能够很大程度上减小隐私泄漏的风险,并且,决策层在联邦训练中通常容易受到数据异构的影响,使用每个类别的特征代表对全局决策层作微调,以很小的计算代价增强了全局模型的泛化性能。