一种基于张量分解的网络模型轻量化方法

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
一种基于张量分解的网络模型轻量化方法
申请号:CN202510787074
申请日期:2025-06-13
公开号:CN120297337A
公开日期:2025-07-11
类型:发明专利
摘要
本发明涉及神经网络模型压缩领域,具体公开一种基于张量分解的网络模型轻量化方法,该方法包括:获取预训练神经网络模型中子网结构内各个卷积核参数、设置网络模型中各子网结构中各层联合分解的秩、根据设置的分解秩,采用Tucker分解对网络模型中子网结构中各层进行联合分解,获得压缩的卷积核,设定优化函数,对压缩的卷积核参数进行调整,并利用调整后的压缩卷积核替换网络中原始卷积核、对调整后的压缩卷积核进行伪量化处理,并根据反向计算中的梯度对参数进行更新,得到量化后的参数,替换调整后的压缩参数,实现神经网络模型的参数压缩。整个过程旨在挖掘神经网络中子网结构的共性,在保持一定网络准确率的情况下大幅提高这类模块化设计的神经网络模型的压缩性能并降低计算复杂度。
技术关键词
轻量化方法 训练神经网络模型 网结构 参数 中子 变分贝叶斯 深度神经网络 复杂度 矩阵