
港科大Apple新研究:Tokens使用量减少,模型推理还更强了
港科大Apple新研究:Tokens使用量减少,模型推理还更强了1+1等于几?
来自主题: AI技术研报
7023 点击 2025-05-28 15:03
1+1等于几?
在日益强调“思维能力”的大语言模型时代,如何让模型在“难”的问题上展开推理,而不是无差别地“想个不停”,成为当前智能推理研究的重要课题。
您是否遇到过这样的困扰:明明搭建了完善的RAG系统,但Agent总是回答过时的信息,或者面对历史偏好变化时一脸茫然?
既能提升模型能力,又不显著增加内存和时间成本,LLM第三种Scaling Law被提出了。
仅需一个强化学习(RL)框架,就能实现视觉任务大统一?
基于开源模型继续在下游任务上使用私有下游数据进行微调,得到在下游任务表现更好的专有模型,已经成为了一类标准范式。
表现最好的GPT-o4 mini,物理推理能力也远不及人类!
上下文长度达 13 万 token,适用于多段文档综合分析、金融、法律、科研等复杂领域任务。
强化学习 (RL) 显著提升了视觉-语言模型 (VLM) 的推理能力。然而,RL 在推理任务之外的应用,尤其是在目标检测 和目标定位等感知密集型任务中的应用,仍有待深入探索。
推理大模型开卷新方向,阿里开源长文本深度思考模型QwenLong-L1,登上HuggingFace今日热门论文第二。