AI资讯新闻榜单内容搜索-scaling

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: scaling
凭借 27 万小时真机数据,Generalist 可能是最接近“GPT-1 时刻”的顶级机器人团队

凭借 27 万小时真机数据,Generalist 可能是最接近“GPT-1 时刻”的顶级机器人团队

凭借 27 万小时真机数据,Generalist 可能是最接近“GPT-1 时刻”的顶级机器人团队

机器人领域是我们长期关注的赛道,而 Generalist 是当前机器人领域中极少数具备长期竞争潜力的公司,核心优势集中在数据规模、团队能力与清晰的 scaling 路径上。

来自主题: AI资讯
6967 点击    2026-01-30 10:36
EmbodiChain开源,用100%生成式数据自动训练具身智能模型

EmbodiChain开源,用100%生成式数据自动训练具身智能模型

EmbodiChain开源,用100%生成式数据自动训练具身智能模型

大语言模型的爆发,让大家见证了 Scaling Law 的威力:只要数据够多、算力够猛,智能似乎就会自动涌现。但在机器人领域,这个公式似乎失效了。

来自主题: AI技术研报
5962 点击    2026-01-20 17:21
纽约时报:OpenAI或将在18个月内现金流枯竭

纽约时报:OpenAI或将在18个月内现金流枯竭

纽约时报:OpenAI或将在18个月内现金流枯竭

2026 年危机逼近,OpenAI 虽创下 400 亿美元融资纪录,但内部预测 2028 年亏损将扩大至 450 亿美元。不同于有传统业务「输血」的科技巨头,独立 AI 公司受困于 Scaling Laws 带来的指数级成本爆炸。奥特曼的万亿豪赌或难以为继,OpenAI 恐面临被吞并结局,AI 泡沫时代即将硬着陆。

来自主题: AI资讯
7366 点击    2026-01-19 16:49
2026年,大模型训练的下半场属于「强化学习云」

2026年,大模型训练的下半场属于「强化学习云」

2026年,大模型训练的下半场属于「强化学习云」

2024 年底,硅谷和北京的茶水间里都在讨论同一个令人不安的话题:Scaling Law 似乎正在撞墙。

来自主题: AI技术研报
8532 点击    2026-01-12 15:13
DeepMind内部视角揭秘!Scaling Law没死,算力即一切

DeepMind内部视角揭秘!Scaling Law没死,算力即一切

DeepMind内部视角揭秘!Scaling Law没死,算力即一切

2026年,Scaling Law是否还能继续玩下去?对于这个问题,一篇来自DeepMind华人研究员的万字长文在社交网络火了:Scaling Law没死!算力依然就是正义,AGI才刚刚上路。

来自主题: AI技术研报
8259 点击    2026-01-01 10:10
Ilya警告、LeCun冷嘲、奥特曼沉默:Scaling Law时代还能走多远?

Ilya警告、LeCun冷嘲、奥特曼沉默:Scaling Law时代还能走多远?

Ilya警告、LeCun冷嘲、奥特曼沉默:Scaling Law时代还能走多远?

过去10年,AI大模型的技术本质,是把电力能源通过计算过程转化为可复用的智能。2026年,我们需要让AI模型在单位时间内「吃下」更多能源,并真正将其转化为智能。

来自主题: AI资讯
7363 点击    2025-12-31 14:38
智谱首席科学家唐杰:领域大模型是伪命题!AI模型应用的第一性不应是创造新App,在线学习和自我评估是新Scaling范式

智谱首席科学家唐杰:领域大模型是伪命题!AI模型应用的第一性不应是创造新App,在线学习和自我评估是新Scaling范式

智谱首席科学家唐杰:领域大模型是伪命题!AI模型应用的第一性不应是创造新App,在线学习和自我评估是新Scaling范式

最近,清华大学教授、智谱AI首席科学家唐杰发了一条长微博,总结了自己2025年对大模型进展的感悟。从预训练到中后训练、长尾场景的对齐能力,再到Agent、多模态和具身智能的发展,其中有不少亮点。

来自主题: AI资讯
8831 点击    2025-12-26 15:42
最新!AI再迎「十字路口」,林达华演讲曝光多模态底层路线图

最新!AI再迎「十字路口」,林达华演讲曝光多模态底层路线图

最新!AI再迎「十字路口」,林达华演讲曝光多模态底层路线图

「高烧」三年后,AI行业终于冷静:Scaling红利即将耗尽,单纯堆参数绝非良药。但商汤已胸有成竹。

来自主题: AI资讯
8101 点击    2025-12-26 09:39
北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

北航提出代码大模型的 Scaling Laws:编程语言差异与多语言最优配比策略

在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。

来自主题: AI技术研报
6878 点击    2025-12-25 09:46