摘要
本发明公开了一种基于迁移学习的跨数据中心存算协同训练加速方法,S1、在多个异构数据中心中部署深度学习模型的初始版本;S2、在第一数据中心对深度学习模型进行初始训练生成第一模型参数集;S3、生成本地深度学习模型参数集;S4、建立异构数据中心的动态权重调整机制;S5、根据参与权重分配不同的计算资源给各异构数据中心;S6、根据各异构数据中心的资源使用情况和任务需求实时调度存储资源和计算资源;S7、进行多任务并行处理;S8、通过动态资源调度策略监控各异构数据中心的资源利用率;S9、生成最终的全局优化模型参数集,并将全局优化模型参数集应用于各异构数据中心的后续任务部署。本发明优化了跨异构数据中心的协同训练效率。