自注意力机制中键值压缩方法、大语言模型及电子设备
# 热门搜索 #
大模型
人工智能
openai
融资
chatGPT
AITNT公众号
AITNT APP
AITNT交流群
搜索
首页
AI资讯
AI技术研报
AI监管政策
AI产品测评
AI商业项目
AI产品热榜
AI专利库
寻求报道
自注意力机制中键值压缩方法、大语言模型及电子设备
申请号:
CN202510344978
申请日期:
2025-03-21
公开号:
CN120106150B
公开日期:
2025-10-03
类型:
发明专利
摘要
本申请公开了自注意力机制中键值压缩方法、大语言模型及电子设备,涉及计算机技术领域。所述压缩方法包括对键矩阵和值矩阵分别进行多次残差分解,得到每次分解后的键残差向量和值残差向量;对每次分解后的键残差向量和值残差向量分别进行聚类压缩,并对查询矩阵、压缩后的键残差向量和值残差向量进行注意力计算;对所有注意力计算结果进行累加。本申请解决了Linear Transformer无法使用标准的Softmax Transformer参数,且与标准Softmax Transformer差异较大的问题。
技术关键词
矩阵
注意力机制
键值
大语言模型
聚类
模块
索引
前馈神经网络
电子设备
指令
位置映射
计算机程序产品
处理器
可读存储介质
文本
存储器
编码
数据