摘要
本发明涉及一种自然语言处理技术领域,具体涉及一种自适应模型的民间故事主题分类方法,以RoBERTa模型为基础架构,并选择冻结RoBERTa模型的参数,通过构建能够对RoBERTa模型每层特征向量维度缩放的RoBERTa自适应模型,只更新RoBERTa自适应模型内部参数,从而在降低计算资源开销的情况下提升分类性能,降低训练成本,提高训练效率;同时通过对基础架构RoBERTa模型每层的重点语义特征信息进行关注和自适应RoBERTa模型本身的语义特征信息关注,降低关键语义的捕捉难度,进一步降低训练难度与训练成本,满足实际使用需求。