基于Transformer架构的自然语言处理模型的训练方法

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
基于Transformer架构的自然语言处理模型的训练方法
申请号:CN202411621030
申请日期:2024-11-14
公开号:CN119129654B
公开日期:2025-03-14
类型:发明专利
摘要
本发明提供一种基于Transformer架构的自然语言处理模型的训练方法,属于大数据处理相关技术领域,包括步骤:获取输入的文本数据并进行预处理,将预处理后的文本送入基于Transformer网络架构的自然语言处理模型进行训练,网络的前馈网络的训练采用动态自适应神经优化算法,使用Transformer网络架构对输入文本进行上下文感知的语义分析后,通过采用基于路径积分的多层极限学习机分类算法,利用费曼路径积分策略建立从输入特征到输出分类结果的概率幅度模型。本发明通过优化网络的核心算法提升模型在任务理解和语义分析上的精度,方法能够捕捉复杂的语义关系,使得自然语言的处理更加智能化。
技术关键词
自然语言 极限学习机分类 网络架构 薛定谔方程 参数 模拟物理系统 样本 动态调整机制 文本 非线性介质 双曲正切函数 语义 核心算法 变量