AI资讯新闻榜单内容搜索-后训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 后训练
70年AI研究得出了《苦涩的教训》:为什么说AI创业也在重复其中的错误?

70年AI研究得出了《苦涩的教训》:为什么说AI创业也在重复其中的错误?

70年AI研究得出了《苦涩的教训》:为什么说AI创业也在重复其中的错误?

Ilya Sutskever 在 NeurIPS 会上直言:大模型预训练这条路可能已经走到头了。上周的 CES 2025,黄仁勋有提到,在英伟达看来,Scaling Laws 仍在继续,所有新 RTX 显卡都在遵循三个新的扩展维度:预训练、后训练和测试时间(推理),提供了更佳的实时视觉效果。

来自主题: AI技术研报
4238 点击    2025-02-05 13:38
OpenAI研究员首次提出「AGI时间」进化论!o1数学已达「分钟级AGI」

OpenAI研究员首次提出「AGI时间」进化论!o1数学已达「分钟级AGI」

OpenAI研究员首次提出「AGI时间」进化论!o1数学已达「分钟级AGI」

本月,OpenAI科学家就当前LLM的scaling方法论能否实现AGI话题展开深入辩论,认为将来AI至少与人类平分秋色;LLM scaling目前的问题可以通过后训练、强化学习、合成数据、智能体协作等方法得到解决;按现在的趋势估计,明年LLM就能赢得IMO金牌。

来自主题: AI技术研报
6744 点击    2024-12-28 13:48
73页,开源「后训练」全流程!AI2发布高质量Tülu 3系列模型,拉平闭源差距,比肩GPT-4o mini

73页,开源「后训练」全流程!AI2发布高质量Tülu 3系列模型,拉平闭源差距,比肩GPT-4o mini

73页,开源「后训练」全流程!AI2发布高质量Tülu 3系列模型,拉平闭源差距,比肩GPT-4o mini

Allen Institute for AI(AI2)发布了Tülu 3系列模型,一套开源的最先进的语言模型,性能与GPT-4o-mini等闭源模型相媲美。Tülu 3包括数据、代码、训练配方和评估框架,旨在推动开源模型后训练技术的发展。

来自主题: AI技术研报
7171 点击    2024-12-10 16:23
新版Llama 3 70B反超405B!Meta开卷后训练,谷歌马斯克都来抢镜

新版Llama 3 70B反超405B!Meta开卷后训练,谷歌马斯克都来抢镜

新版Llama 3 70B反超405B!Meta开卷后训练,谷歌马斯克都来抢镜

OpenAI“双12”刚进行到第二天,就把大模型圈搅得好不热闹! 一边是Meta没预告就发布了Llama 3.3,70B版本就能实现以前405B的性能。

来自主题: AI资讯
7378 点击    2024-12-07 15:29
美欧亚三洲开发者联手,全球首个组团训练的大模型来了,全流程开源

美欧亚三洲开发者联手,全球首个组团训练的大模型来了,全流程开源

美欧亚三洲开发者联手,全球首个组团训练的大模型来了,全流程开源

Prime Intellect 宣布通过去中心化方式训练完成了一个 10B 模型。30 号,他们开源了一切,包括基础模型、检查点、后训练模型、数据、PRIME 训练框架和技术报告。据了解,这应该是有史以来首个以去中心化形式训练得到的 10B 大模型。

来自主题: AI资讯
7065 点击    2024-12-02 12:35
和梁朝伟同获港科荣誉博士,黄仁勋与沈向洋对谈Scaling Law、后训练、机器人和爱情

和梁朝伟同获港科荣誉博士,黄仁勋与沈向洋对谈Scaling Law、后训练、机器人和爱情

和梁朝伟同获港科荣誉博士,黄仁勋与沈向洋对谈Scaling Law、后训练、机器人和爱情

11 月 23 日,香港科技大学举行了今年度的学位颁授典礼。英伟达创始人和 CEO 黄仁勋又新增一个荣誉工程学博士头衔,与他一同获得荣誉博士学位的还有著名影星梁朝伟、2013 年诺贝尔化学奖得主 Michael Levitt、菲尔兹奖得主 David Mumford。

来自主题: AI资讯
5938 点击    2024-11-25 14:58
这才是真・开源模型!公开「后训练」一切,性能超越Llama 3.1 Instruct

这才是真・开源模型!公开「后训练」一切,性能超越Llama 3.1 Instruct

这才是真・开源模型!公开「后训练」一切,性能超越Llama 3.1 Instruct

开源模型阵营又迎来一员猛将:Tülu 3。它来自艾伦人工智能研究所(Ai2),目前包含 8B 和 70B 两个版本(未来还会有 405B 版本),并且其性能超过了 Llama 3.1 Instruct 的相应版本!长达 73 的技术报告详细介绍了后训练的细节。

来自主题: AI技术研报
10683 点击    2024-11-23 16:04
1000多个智能体组成,AI社会模拟器MATRIX-Gen助力大模型自我进化

1000多个智能体组成,AI社会模拟器MATRIX-Gen助力大模型自我进化

1000多个智能体组成,AI社会模拟器MATRIX-Gen助力大模型自我进化

随着大语言模型(LLMs)在处理复杂任务中的广泛应用,高质量数据的获取变得尤为关键。为了确保模型能够准确理解并执行用户指令,模型必须依赖大量真实且多样化的数据进行后训练。然而,获取此类数据往往伴随着高昂的成本和数据稀缺性。因此,如何有效生成能够反映现实需求的高质量合成数据,成为了当前亟需解决的核心挑战。

来自主题: AI技术研报
6304 点击    2024-11-14 14:07
打破RLHF瓶颈,克服奖励欺骗!Meta发布全新后训练方式CGPO,编程水平直升5%

打破RLHF瓶颈,克服奖励欺骗!Meta发布全新后训练方式CGPO,编程水平直升5%

打破RLHF瓶颈,克服奖励欺骗!Meta发布全新后训练方式CGPO,编程水平直升5%

CGPO框架通过混合评审机制和约束优化器,有效解决了RLHF在多任务学习中的奖励欺骗和多目标优化问题,显著提升了语言模型在多任务环境中的表现。CGPO的设计为未来多任务学习提供了新的优化路径,有望进一步提升大型语言模型的效能和稳定性。

来自主题: AI技术研报
3121 点击    2024-11-01 14:54