AI资讯新闻榜单内容搜索-Softmax

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Softmax
中学生就能看懂:从零开始理解LLM内部原理【七】| “概率”从哪里来?

中学生就能看懂:从零开始理解LLM内部原理【七】| “概率”从哪里来?

中学生就能看懂:从零开始理解LLM内部原理【七】| “概率”从哪里来?

LLM本质上是一个基于概率输出的神经网络模型。但这里的“概率”来自哪里?今天我们就来说说语言模型中一个重要的角色:Softmax函数。(相信我,本文真的只需要初等函数知识)

来自主题: AI技术研报
7012 点击    2025-03-25 14:34
「知识蒸馏+持续学习」最新综述!哈工大、中科院出品:全新分类体系,十大数据集全面实验

「知识蒸馏+持续学习」最新综述!哈工大、中科院出品:全新分类体系,十大数据集全面实验

「知识蒸馏+持续学习」最新综述!哈工大、中科院出品:全新分类体系,十大数据集全面实验

最新综述论文探讨了知识蒸馏在持续学习中的应用,重点研究如何通过模仿旧模型的输出来减缓灾难性遗忘问题。通过在多个数据集上的实验,验证了知识蒸馏在巩固记忆方面的有效性,并指出结合数据回放和使用separated softmax损失函数可进一步提升其效果。

来自主题: AI技术研报
4052 点击    2025-01-10 13:01
Sigmoid注意力一样强,苹果开始重新审视注意力机制

Sigmoid注意力一样强,苹果开始重新审视注意力机制

Sigmoid注意力一样强,苹果开始重新审视注意力机制

注意力是 Transformer 架构的关键部分,负责将每个序列元素转换为值的加权和。将查询与所有键进行点积,然后通过 softmax 函数归一化,会得到每个键对应的注意力权重。

来自主题: AI技术研报
6122 点击    2024-09-19 11:10
小模型性能饱和、表现不佳,根源是因为Softmax?

小模型性能饱和、表现不佳,根源是因为Softmax?

小模型性能饱和、表现不佳,根源是因为Softmax?

语言建模领域的最新进展在于在极大规模的网络文本语料库上预训练高参数化的神经网络。在实践中,使用这样的模型进行训练和推断可能会成本高昂,这促使人们使用较小的替代模型。然而,已经观察到较小的模型可能会出现饱和现象,表现为在训练的某个高级阶段性能下降并趋于稳定。

来自主题: AI技术研报
10077 点击    2024-05-03 20:58