AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
老婆饼里没有老婆,RLHF里也没有真正的RL

老婆饼里没有老婆,RLHF里也没有真正的RL

老婆饼里没有老婆,RLHF里也没有真正的RL

老婆饼里没有老婆,夫妻肺片里没有夫妻,RLHF 里也没有真正的 RL。在最近的一篇博客中,德克萨斯大学奥斯汀分校助理教授 Atlas Wang 分享了这样一个观点。

来自主题: AI资讯
9153 点击    2025-01-09 09:41
DeepSeek创始人专访:中国的AI不可能永远跟随,需要有人站到技术的前沿

DeepSeek创始人专访:中国的AI不可能永远跟随,需要有人站到技术的前沿

DeepSeek创始人专访:中国的AI不可能永远跟随,需要有人站到技术的前沿

因为 V3 版本开源模型的发布,DeepSeek 又火了一把,而且这一次,是外网刷屏。 训练成本估计只有 Llama 3.1 405B 模型的 11 分之一,后者的效果还不如它。

来自主题: AI资讯
8351 点击    2025-01-09 09:31
「小模型」有更多机会点

「小模型」有更多机会点

「小模型」有更多机会点

大厂为什么追求大模型? 昨天有提到,为什么要研究语言模型。

来自主题: AI资讯
6890 点击    2025-01-08 14:50
AAAI 2025 | 大模型推理加速新范式:加速比高达3.51倍、成本降至1/3

AAAI 2025 | 大模型推理加速新范式:加速比高达3.51倍、成本降至1/3

AAAI 2025 | 大模型推理加速新范式:加速比高达3.51倍、成本降至1/3

Falcon 方法是一种增强半自回归投机解码框架,旨在增强 draft model 的并行性和输出质量,以有效提升大模型的推理速度。Falcon 可以实现约 2.91-3.51 倍的加速比,在多种数据集上获得了很好的结果,并已应用到翼支付多个实际业务中。

来自主题: AI技术研报
8051 点击    2025-01-08 14:38
1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA

1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA

1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA

1/10训练数据激发高级推理能力!近日,来自清华的研究者提出了PRIME,通过隐式奖励来进行过程强化,提高了语言模型的推理能力,超越了SFT以及蒸馏等方法。

来自主题: AI技术研报
4230 点击    2025-01-08 11:12
陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减

陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减

陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减

陈丹琦团队又带着他们的降本大法来了—— 数据砍掉三分之一,大模型性能却完全不减。 他们引入了元数据,加速了大模型预训练的同时,也不增加单独的计算开销。

来自主题: AI资讯
8520 点击    2025-01-08 09:56
Tokenization,再见!Meta提出大概念模型LCM,1B模型干翻70B?

Tokenization,再见!Meta提出大概念模型LCM,1B模型干翻70B?

Tokenization,再见!Meta提出大概念模型LCM,1B模型干翻70B?

Meta提出大概念模型,抛弃token,采用更高级别的「概念」在句子嵌入空间上建模,彻底摆脱语言和模态对模型的制约。

来自主题: AI技术研报
10940 点击    2025-01-07 18:11
a16z Games合伙人:交互式3D及仿真技术将不仅仅服务于游戏行业,而是能应用于各行各业

a16z Games合伙人:交互式3D及仿真技术将不仅仅服务于游戏行业,而是能应用于各行各业

a16z Games合伙人:交互式3D及仿真技术将不仅仅服务于游戏行业,而是能应用于各行各业

游戏本质上是虚拟模拟,而虚拟模拟在过去的几十年里,一直是为了好玩而设计的。但是,我们将越来越多地看到它们在现实世界中用于各种用例,无论是培训、学习和发展,还是用于机器人和其他自主系统的训练场,亦或是可视化,来让人们实时看到事物变得栩栩如生。

来自主题: AI资讯
6958 点击    2025-01-07 14:29
“零一万物”财务亮红灯,李开复急踩刹车

“零一万物”财务亮红灯,李开复急踩刹车

“零一万物”财务亮红灯,李开复急踩刹车

智能涌现独家获悉:零一万物裁撤预训练算法团队和Infra团队后,阿里通义、智能云团队给出了offer。

来自主题: AI资讯
9735 点击    2025-01-07 10:05