
过去一年,LLM Agent几乎成为所有 AI 研究团队与工业界的共同方向。
OpenAI在持续推进更强的推理与工具使用能力,Google DeepMind将推理显式建模为搜索问题,Anthropic则通过规范与自我批判提升模型可靠性。
一个非常清晰的行业趋势正在形成:单模型能力正在接近结构性边界,多智能体被视为下一步。
Advaita Research/Hetu联合创始人Jialin Li发布的最新研究论文,为多智能体协作共识提出了明确的理论框架,并给出了一组生产级系统指标的跃迁式改善:在accuracy基本不变的前提下,实现最高20×端到端延迟下降,最高11×的P99尾延迟改善,以及最高4.4×的token成本削减。

论文链接:https://arxiv.org/pdf/2512.20184
英文版链接:https://x.com/advaita_labs/status/2018576622048473241
这项工作将多智能体推理的问题,从prompt与workflow设计,重新拉回到系统设计和工程层面:一致性语义、停止条件与尾延迟治理。
在工程语境中,论文给出的核心判断可以概括为一句话:当前多智能体系统,缺乏一套明确的Agentic Consensus(智能体共识)系统语义。
Advaita Research / Hetu CMO Stephanie Yu从系统工程视角对论文进行了解读。
在当前主流路线中,大型研究机构对Agent的探索大致可以分为三类,但它们在一个关键问题上保持了共同的沉默:当多个随机推理主体并行工作时,系统何时可以认为已经达成稳定一致?
OpenAI的路线始终围绕test-time scaling,包括self-consistency、多路径推理、更强的 chain-of-thought、更成熟的 tool use。
该体系在单主体条件下具有非常清晰的工程优势:推理质量高度可控、行为一致性强、工程复杂度集中。
其隐含前提同样明确:系统只有一个决策主体。
一旦扩展为多个planner、多个actor并行执行,一致性不再由模型内部保证,而被外包给上层workflow的规则组合。
Tree-of-Thoughts等方法将推理显式建模为搜索问题,通过评估函数在候选路径中选择最优解。
该范式在离线推理和数学问题上表现稳定,但在系统层面呈现出两个明显特征:推理过程高度同步、停止条件由搜索深度或预算上限决定。
本质上,这类方法优化的是路径质量,而不是在并发、延迟与成本约束下的决策时机问题。
Anthropic的constitutional debate,以及Meta、Stanford 提出的多 Agent debate / society-of-minds,引入了多主体交互。
在工程实现上,这类系统通常依赖:固定agent数、固定轮数、barrier synchronization(等待所有 agent 完成)、多数投票或规则聚合。
但这些机制并没有给出稳定一致性的系统定义。
当主流Agent路线仍在强化「如何更好地推理」,将多智能体视为推理技巧的叠加时,
Advaita Research的这项研究把问题下沉到了系统层:在多个随机推理主体并行时,如何定义、验证并稳定达成一致。
论文提出的核心方法体系为Aegean,其根本重构在于:多智能体推理不再被视为workflow编排问题,而被建模为一个分布式共识过程。
不同于传统分布式系统,智能体决策呈现随机不确定性,使得现有共识协议架构无法适用。论文针对多智能体环境提出了新的共识理论框架,并给出了严谨的多智能体共识的正确性定义。
论文之后基于理论框架提出了新的共识协议。其核心机制包括三点:
(1)Quorum-fast,而不是wait-all
系统不再等待所有agent,只要达到 quorum 即推进决策,延迟不再由最慢 agent 决定。
(2)稳定性窗口(β),而不是「一致就停」
一致性必须在时间维度上持续存在,才能被视为有效共识,从而过滤暂时性多数。
(3)Streaming共识与即时取消
在token生成过程中持续检测共识状态,一旦满足稳定条件,立即终止剩余生成。
论文指出:多智能体推理,本质上是运行在随机推理主体之上的分布式共识问题。
一旦缺乏明确的共识语义,工程失败并非偶发,而是呈现出高度可预测的系统性模式。
论文系统性测量了decision flip现象(在现有Agent workflow中几乎未被显式建模)。
结果显示:在引入agent间 reasoning exchange后,准确率提升的同时,多数决策在相邻轮次发生反转的频率显著上升。
以MMLU为例:100个样本中出现64次 decision flip,意味着系统在连续轮次中反复改变多数结论。
在缺乏稳定性约束时,任何基于「当前多数」的提前停止或投票机制,都可能发生在transient agreement(暂时性一致) 上。
这不是推理能力问题,而是共识未被定义的问题。
当前多Agent系统普遍采用barrier synchronization,论文在AIME(1 req/s)场景下,对比了主流做法与引入共识机制后的系统表现:
多Agent baseline(MaxRound = 6)最慢请求为6571秒,P99 延迟为8749秒
引入共识机制后,最慢请求约325秒,P99延迟为772 秒;
在相同任务条件下:P99 延迟改善约11×,平均延迟改善约 20×
该差异并非来自模型推理能力,而来自同步范式从「等所有人」转向「达成共识即可推进」。
论文进一步量化了多智能体系统中长期被忽视的问题:收敛之后的无效计算。
在多个基准任务上,引入Agentic Consensus后:
GSM8K:4.4×减少(约 1.3K vs 5.7K)
MMLU:3.3×减少(约 3.3K vs 10.7K)
AIME:1.3×减少(约 46.0K vs 59.9K)
IMO:1.1×减少(约 64.8K vs 73.8K)
与此同时,accuracy波动被控制在约2.5%以内。
这表明:token成本下降来自共识驱动的早停与取消机制,而不是通过牺牲质量实现。
在引入Agentic Consensus(Advaita Research 提出的多智能体共识建模方法)后,系统行为出现了清晰的数量级变化:平均延迟降低1.2–20×,P99尾延迟最高改善11×,token消耗降低 1.1–4.4×,accuracy波动约2.5%
这些指标共同指向同一个系统级结论:多智能体推理的性能瓶颈,并不来自模型能力,而来自协作机制是否具备可操作的共识语义。
Agentic Consensus并不是一个附加能力,而是一条明确的系统分界线。
当Agent作为真实系统中的行动单元运行时,问题不再是:「单个模型能否推理得更好」,而是在多个随机推理主体并行的情况下,系统是否具备可判断、可停止、可扩展的一致性语义。
论文给出的核心判断标准是:如果一个多智能体系统无法明确回答「何时算达成一致、何时可以安全停止、延迟由谁决定」,那它在工程上仍停留在workflow,而非系统。
从这个角度看:decision flip、P99被最慢agent定义、收敛后的token浪费,都不是实现细节上的瑕疵,而是系统尚未进入「共识可操作阶段」的信号。
Advaita Research的这项工作,并不是提出一种新的Agent玩法,而是把Agentic Consensus提升为一个工程判断标准:多智能体推理,是否已经从「推理技巧的叠加」,迈入「具备可验证共识语义的系统」。
当这个标准成立,多智能体才能真正从demo走向production;当它不成立,再复杂的推理流程,也只是在同步成本之上叠加计算。
参考资料:
https://arxiv.org/pdf/2512.20184
文章来自于微信公众号 “新智元”,作者: “新智元”
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0