摘要
本发明公开了一种NPU固件支持多模型快速切换的方法。本发明中,显著提升了多任务场景下的系统实时性与资源利用率。通过动态分层缓存策略与优先级调度机制,系统能够智能分配高速缓存资源,优先保障高频率、高紧迫性模型的快速加载,例如在自动驾驶场景中,路径规划模型的切换延迟可降至毫秒级,确保关键任务无感知切换。增量参数加载技术与固件级上下文管理深度融合,仅传输模型差异数据并利用硬件加速恢复计算状态,大幅减少传统全量加载带来的带宽浪费,使边缘计算设备在语音识别与图像处理等多任务并行时,模型切换效率提升10倍以上,同时保持计算精度无损。