一种基于量子-经典联合结构的transformer模型及其训练方法
申请号:CN202510783880
申请日期:2025-06-12
公开号:CN120633717A
公开日期:2025-09-12
类型:发明专利
摘要
基于量子‑经典联合结构的transformer模型及训练方法,基于变分量子线路的Transformer模型构建,在传统Transformer的基础上,引入基于变分量子线路的量子神经网络结构,结合经典神经网络模块构建连接求和结构,形成一种新型的量子‑经典混合Transformer结构;基于构建量子‑经典混合结构的前馈神经网络,通过量子‑经典混合Transformer架构的训练,求出输出结果对模型参数的梯度;利用梯度下降法优化、更新参数。结合量子计算的计算性能潜力,本发明有望充分利用量子计算的性能,结合经典Transformer模块的能力作为补充,得到不弱于传统Transformer的能力。本发明将适用于自然语言处理、基因组分析等应用场景。
技术关键词
多头注意力机制
量子前馈神经网络
Softmax函数
网络模块
量子神经网络
量子态
电路
线路
序列
编码
梯度下降法
数据嵌入
掩码矩阵
线性
嵌入位置信息
混合结构