你见过 7B 模型在拼图推理上干翻 GPT-5 吗?
不是靠堆参数,不是靠更大的数据,而是靠一件事:学会「什么时候该用工具」。
大多数「工具增强」模型是这样的:遇到任务 X → 调用固定工具 Y → 祈祷结果正确。一旦场景稍微变化,模型就开始抽风——不知道什么工具该用、什么工具不该用。
AdaReasoner 解决的是更本质的问题:把 what / when / how(用什么、何时用、怎么用)当成推理能力来学。

先看 10 秒效果:

AdaReasoner 工作流程示意
Google 近期宣布,为其轻量级模型 Gemini 3 Flash 引入一项名为「Agentic Vision」(代理视觉)的新能力。
这项更新标志着多模态 AI 处理图像的方式发生了根本性转变:从传统的静态识别,升级为具备「思考、行动、观察」循环的主动调查模式。
在此之前,包括 GPT 在内的大多数前沿多模态模型处理图像的方式类似于人类的「匆匆一瞥」:模型接收图像,进行一次性处理并输出结果。这种方式在面对需要细致观察的任务时,往往会因为细节丢失而产生幻觉或猜测。
Agentic Vision 的工作机制:Gemini 3 Flash 现在能够像人类调查员一样通过以下循环进行推理:
上述过程可以多次迭代,直到模型收集到足够的确凿证据来回答问题。
有意思的是:AdaReasoner 与 Agentic Vision 殊途同归。AdaReasoner 同样实现并验证了几乎相同的范式:

工业界与学术界同时押注「主动工具使用」,说明这个方向正在成为多模态推理的主流范式。
AdaReasoner 的独特价值在于:我们不只是验证了这套范式有效,更提出了一套让开源小模型也能习得这种能力的训练方法——这正是接下来要详细介绍的内容。
在多模态推理里,「看清细节」和「多步推理」经常互相卡脖子:
感知不够精确 → 证据不足 → 推理再漂亮也容易变成「guided guessing」;
反过来,如果能把关键证据用工具查出来、画出来、验证出来,模型就能把算力用在判断与规划上。
换句话说:工具不是外挂,而是把推理从「猜」拉回「查」的关键路径。
AdaReasoner 是一个训练范式:让模型不仅会「调用工具」,更会做三类决策:

AdaReasoner 把「工具使用」当成推理技能来学习:会采纳有用工具、丢弃无关工具,并按任务调节调用频率。
我们不是只给模型看「完美路径」,而是刻意加入两类真实世界会发生的场景:

定性案例:多轮工具规划 + 反思纠错 + 组合工具完成复杂视觉推理
多模态工具推理往往不是「一次调用结束」,而是多回合:
观察 → 调用 → 再观察 → 再调用 → 最终回答。
Tool-GRPO 针对 multi-turn 场景做了专门的强化学习优化,并用自适应奖励把工具使用变成「不确定时的可靠后备」,而不是强制流程。
为了避免模型死记硬背某个工具名(比如看到 "Point" 就条件反射),我们做了两件事:

随机化训练的直观示意

AdaReasoner 框架总览:Tool Cold Start → Tool-GRPO → Adaptive Learning
先给结论:AdaReasoner-7B 相对 base 模型在多个基准上实现显著提升(在选取的 8 个 benchmark 上平均 +24.9%),并在结构化推理任务上接近满分。

主实验结果:在 VSP、Jigsaw、GUIQA 等任务上显著提升。
更重要的是:不是「工具越多越好」,而是训练配方决定工具是否真的帮得上忙。
例如在单任务设置下:

瓶颈迁移示意:当工具规划足够好,性能瓶颈从「模型规模」部分迁移到「工具效用与工具规划能力」
这部分是 AdaReasoner 最像「智能体」的地方:我们没有写规则让它这么做,但它在 RL 过程中学会了。
行为 1:会「采纳」有用的新工具(Adopt)
把 A* 规划工具放进强化学习阶段(Cold Start 没见过),模型会逐步提高调用频率并稳定掌握:
VSP Navigation 从 44.83 → 96.33

Navigation 任务示意

A* 工具调用频率随 RL 训练演化
行为 2:会「丢弃」无关工具(Discard)
更关键的是:A* 对 Verify 任务没用,甚至是干扰项。
在「只在推理时提供 A*」的设置里,Verify 会出现 94.20 → 80.00 的下降。
而在 RL 训练后,模型会逐步压制无关调用,让 Verify 维持在接近满分(99.20)。
一句话:它不仅会用工具,还会学会「别乱用」。
行为 3:会「调节」调用频率(Modulate)
工具也不是开/关二选一。模型会根据子任务「调频」:
Point 工具在导航更关键(~3.2 calls/sample),在验证更克制(~1.0 call/sample)

Point 工具调用频率「调频」:Navigation 中更关键,Verification 中更克制
现实里最常见的崩溃方式是:工具定义、参数名、描述文案一变,模型就「不会用了」。
AdaReasoner 用 ADL(随机化 + 改写)把「工具规划」从文本表面形式里解耦出来。
一个很直观的证据来自工具使用统计:

工具使用统计(CPS、成功率)与性能
此外,使用 ADL,模型能够更容易在新的任务上取得更好的表现。我们仅使用 Jigsaw 这一个任务的 SFT 数据,在三个任务上 RL,可以看到,使用 ADL 的版本能够在另外两个任务上给模型带来效果上的提升。

ADL 能将单个任务上学来的 agent planning 能力迁移到 SFT 没见过的任务上。
多模态推理不只是 「think harder」。更关键的是:
actively seeing, verifying, and planning with tools.
当工具编排学得足够好,瓶颈会发生迁移:
model scale → tool utility + tool planning
这对小模型尤其重要:参数有限时,「会用工具」就是最直接的能力放大器。
从 Agentic Vision 看趋势:Google 用 Agentic Vision 把 Think-Act-Observe 内置到 Gemini,学术界用 AdaReasoner 验证这套范式在开源模型上的可行性——两条路线同时验证了「主动工具使用」的价值。对于希望在自己数据/场景上复现这种能力的研究者和开发者,AdaReasoner 提供了一套完整的开源方案。
Adaptive Learning 对提升模型的泛化性也有很大帮助,可以帮助将 agent planning 能力迁移到以前没见过的 agent 和新的任务上去。
文章来自于“机器之心”,作者“机器之心”。
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!
项目地址:https://github.com/coze-dev/coze-studio
【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。
项目地址:https://github.com/n8n-io/n8n
在线使用:https://n8n.io/(付费)
【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。
项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file
【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。
项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file
在线使用:https://vectorvein.ai/(付费)
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md