
突破单链思考上限,清华团队提出原生「并行思考」scale范式
突破单链思考上限,清华团队提出原生「并行思考」scale范式近年来,大语言模型(LLMs)在复杂推理任务上的能力突飞猛进,这在很大程度上得益于深度思考的策略,即通过增加测试时(test-time)的计算量,让模型生成更长的思维链(Chain-of-Thought)。
近年来,大语言模型(LLMs)在复杂推理任务上的能力突飞猛进,这在很大程度上得益于深度思考的策略,即通过增加测试时(test-time)的计算量,让模型生成更长的思维链(Chain-of-Thought)。
上下文学习”(In-Context Learning,ICL),是大模型不需要微调(fine-tuning),仅通过分析在提示词中给出的几个范例,就能解决当前任务的能力。您可能已经对这个场景再熟悉不过了:您在提示词里扔进去几个例子,然后,哇!大模型似乎瞬间就学会了一项新技能,表现得像个天才。
《全球人工智能科研态势报告(2015-2024)》数据显示,中国AI研究人员数量从2015年不到1万人,增长到2024年的5.2万人,年复合增长率高达28.7%。尽管增长迅速,但仍难追上产业扩张的速度。当前中国AI人才缺口超过500万,供需比例为1∶10。
这篇题为《Nav-R1: Reasoning and Navigation in Embodied Scenes》的新论文,提出了一个新的「身体体现式(embodied)基础模型」(foundation model),旨在让机器人或智能体在 3D 环境中能够更好地结合「感知 + 推理 + 行动」。简单说,它不仅「看到 + 听到+开动马达」,还加入清晰的中间「思考」环节。
来自MIT Improbable AI Lab的研究者们最近发表了一篇题为《RL's Razor: Why Online Reinforcement Learning Forgets Less》的论文,系统性地回答了这个问题,他们不仅通过大量实验证实了这一现象,更进一步提出了一个简洁而深刻的解释,并将其命名为 “RL's Razor”(RL的剃刀)。
DeepSeek荣登Nature封面,实至名归!今年1月,梁文锋带队R1新作,开创了AI推理新范式——纯粹RL就能激发LLM无限推理能力。Nature还特发一篇评论文章,对其大加赞赏。
人工智能初创公司Invisible Technologies 作为 Scale AI 的竞争对手,在新一轮融资中筹集 1 亿美元资金,这凸显了硅谷投资者对人工智能热潮基础构建模块的持续关注。
等了一百多天,悬念终于揭晓。 9 月 13 日上午,蚂蚁集团开源团队(「开源技术增长」)携《 2025 大模型开源开发生态全景图 》2.0 版,亮相上海外滩大会。
当最初的技术狂热逐渐褪去,产业界开始冷静地审视:AI 究竟能在多大程度上成为真实的生产力。在这样的背景下,观察腾讯这样一家拥有海量用户和庞大业务场景的巨头如何作答,无疑具有风向标的意义。
近日,伦敦国王学院的一项心理学研究表明,ChatGPT等AI工具的使用可能促进或加重精神病(AI psychosis)。研究表示,AI聊天中的奉承、迎合用户方式,可能放大人类的妄想思维,从而导致精神疾病。