摘要
本申请涉及联邦学习技术领域,公开了一种基于多智能体与知识蒸馏的联邦学习方法、系统及介质,方法包括:S1、训练本地模型;S2、基于解耦的知识蒸馏;S3、基于区块链的去中心化知识共享:将S2提取的标准化蒸馏知识片段及其元数据封装成区块链交易提交至区块链网络,并验证交易合法性,写入区块链账本,实现去中心化分发;S4、基于大语言模型的多智能体协作知识管理,更新学生模型;S5、重复执行S1‑S4,直至满足训练终止条件。本申请实现联邦学习过程中对知识的个性化选择、自适应过滤与高效共享,有效缓解由数据非独立同分布特性引起的客户端漂移现象,显著提升模型在异构数据环境下的收敛速度、整体性能与个性化水平,并优化客户端间的通信开销。