一种车云协同中基于模型压缩和知识蒸馏的DNN推理加速方法

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
一种车云协同中基于模型压缩和知识蒸馏的DNN推理加速方法
申请号:CN202510234942
申请日期:2025-02-28
公开号:CN120258130A
公开日期:2025-07-04
类型:发明专利
摘要
本发明公开一种车云协同中基于模型压缩和知识蒸馏的DNN推理加速方法,包括以下步骤:1)建立车云协同计算系统,包括云端服务器和车载终端设备;2)基于车载终端设备资源限制,在云端服务器上对预训练的DNN模型进行压缩;3)在云端服务器上,对压缩后的DNN模型进行蒸馏;4)以总推理延迟最短为目标,对蒸馏后的DNN模型进行分割,得到第一DNN模型和第二DNN模型,并将第一DNN模型部署在车载终端设备上,将第二DNN模型部署在云端服务器;5)执行DNN推理。本发明综合考虑了不同的车载终端任务对准确率及推理时延的要求,将DNN模型进行压缩并分区部署在车载终端设备和云端服务器上,进一步提高了DNN推理的速度。
技术关键词
车载终端设备 云端服务器 模型压缩 DNN模型 蒸馏 网络 参数 策略 因子 时延 模块 通道 资源 分区 批量 负担 计算机 代表 算法