随着MCP、Agent Skills与各类Harness的快速发展,大模型能轻松调用成百上千种外部工具,但在多工具,具备复杂状态、长程交互的任务上仍有明显短板。尽管一系列环境扩展方法尝试复刻真实世界的交互环境(如订票系统,外卖平台),但仍受限于环境扩展的规模与真实性。除此以外,训练环境造得再多,当智能体在面临新的交互环境时,若缺少持续学习的训练算法依旧很难具备泛化性。
为此,本文提出Agent-World:一个通用智能体训练场,将“智能体环境探索”与“自进化训练”相结合,形成智能体与环境协同进化的闭环。
Agent-World由两个核心模块构成:
(1)智能环境-任务探索:通过深度研究智能体,围绕真实世界环境主题,自主从互联网挖掘环境数据库、生成可执行工具和可校验任务。
(2)持续自进化训练:通过多环境强化学习训练智能体,并将合成环境视作天然的训练场,自动诊断智能体的能力短板,针对性地推动环境/任务扩展,实现智能体的自进化。

图1:Agent-World总览:左图展示Agent-World智能体与环境的协同进化闭环,右图展示下游性能与环境扩展曲线
最终,Agent-World 构建了1978个环境、19,822 个工具,任务平均交互轮次超过15轮。实验表明,在23 个挑战性的基准上(包括τ²-Bench、BFCL V4、MCP-Mark、ClawEval、SkillsBench等),Agent-World-8B/14B一致性优于先进的环境扩展方法与强开源基础模型。进一步的实验分析表明,环境多样性、自进化轮次与智能体性能之间存在可扩展关系。


目前 Agent-World 在X 上收获很高关注度,同时荣登Huggingface Paper 日榜第二名!


1、智能环境-任务挖掘:从网络中自动挖掘真实世界环境
传统的环境合成方法要么依赖LLM直接生成,要么局限于有限的开源工具数据。Agent-World则选择了个有趣的思路:从真实世界的环境主题出发,让深度研究智能体自主去广阔的互联网上挖掘环境。

图2:智能环境-任务挖掘流程:包含整体流程概览(上)与各步骤细粒度展示(下)
(1)智能数据库挖掘:Agent-World选定真实MCP服务器数据、开源工具文档、行业需求文档等作为主题锚点(2千余个);对每个主题使用搜索、浏览、代码编译器与文件系统四种工具的深度研究智能体(Deep Research Agent),从海量互联网的网页中自主挖掘主题相关的环境数据库,并通过迭代式地数据复杂化来提升数据库规模与结构真实性。

(2)工具接口生成与校验:Agent-World进一步引入代码智能体来为每个环境生成工具接口与单元测试脚本,通过“可编译性、测试准确率、环境最小有效性”三重规则过滤,最终得到一系列包含真实数据库与可执行工具集的交互环境。

(3)层次化环境分类体系:为了支撑跨环境的任务合成与分层评测,该工作进一步对海量环境生态进行体系构建,通过主题聚类并结合大模型与人工校验,Agent-World将环境生态划分了 20 / 50 /1978的三层级环境标签分类体系(如下图所示)

图3:Agent-World的层次环境分类。左图展示20个一级环境,右图展示Top-10二级环境对应三级环境数量。
(4)可验证任务合成:基于高质量的环境生态,Agent-World采用了两种互补的可验证任务合成策略:
•基于图的任务合成:为环境中的工具构建一个完全连通的依赖图,通过随机游走生成合理的工具调用序列,随后“由链反推”自然语言问题,并配套大模型评分Rubric。这种方法擅长建模顺序依赖的逻辑。
•程序化任务合成:直接让LLM生成一个需要复杂控制流的Python脚本来解决某个问题,并反向生成对应的问题,可执行验证代码。这种方法能捕捉非线性的复杂推理。
(5)合成环境的统计分析:下图给出了环境与任务分布的详尽统计。经多道过滤后,Agent-World最终沉淀 1,978个环境、19,822 个工具,单环境平均工具数超过10个,体量可观且粒度均衡;环境数据库横跨 JSON、CSV、SQL、HTML、TeX、YAML 等多种文件格式,结构与语义上均呈现高度异质性。
合成任务则以“长程多轮”为主,平均交互轮次超过15轮,对规划、记忆与错误恢复提出持续压力。难度方面,即便是豆包-Seed 2.0在Pass@10设定下仍有相当比例任务无法正确完成,反映出整体任务的极具挑战性。
综上,静态统计从规模、格式、交互长度、难度四个维度共同验证了 Agent-World 合成交互环境在多样性、异质性与复杂性上的显著优势。

图4:Agent-World合成环境与任务的六维统计分析。
2、持续自进化智能体训练:让智能体与环境协同进化
在构建可扩展,真实的环境生态系统后,Agent-World将其转化为一个动态的智能体训练场(如下图)。

图5:持续自进化智能体训练框架。上方是多环境强化训练,下方是诊断与协同进化循环。
(1)多环境强化学习:与传统 Agent RL 不同,我们的训练在「智能体–工具–数据库」的闭环交互中展开。智能体在不同环境中进行 Rollout,调用工具的同时也会改写底层数据库状态,使学习信号真正根植于可执行世界环境。算法上,Agent-World 采用广泛使用的 GRPO 最大化上述可验证奖励,稳定提升Agent性能。

奖励侧亦按任务类型分化:基于图合成的任务由大模型依校验rubric评分细则逐项打分;程序式任务则直接执行验证脚本,依最终答案或状态的正确性给分。

(2)自进化智能体竞技场:Agent-World的核心在于把整个环境生态视作天然的智能体训练竞技场。训练并非一蹴而就,而是一个多轮迭代的自进化过程:
动态评测任务合成:每轮训练结束后,从竞技场的环境池中按环境分类体系均衡采样一批新环境,并为其合成全新的评估任务,避免"刷过的题再考一遍"。
智能体化诊断:让当前轮次的智能体在这批新任务上跑评估;诊断智能体随后分析其失败轨迹、错误分布与环境元信息,定位能力短板(例如"Notion环境下的二级标题创建出错"),输出弱点环境排序与针对性任务生成指南。
智能体–环境协同进化:依据诊断结果,在弱点环境上合成更具挑战性的训练任务,并按需进一步复杂化对应环境数据库;再以这批"薄弱能力定制化数据"驱动下一轮的持续强化学习。
以上流程形成了一个有趣的训练飞轮:“训练提升智能体 →评估暴露弱点 →诊断指引环境/任务扩展 →新数据驱动智能体进一步进化”。这一闭环让智能体与其训练环境实现了真正的“协同进化”。

实验设置:为充分评估泛化,Agent-World评测5大类领域,共覆盖23个评测基准:
• 智能体工具使用:
MCP-Mark, BFCL V4, τ²-Bench
• 前沿AI助手:
SkillsBench, ARC-AGI-2, ClawEval
• 通用推理:
MATH500, GSM8K, MATH, AIME24/25, KOR-Bench, OlympiadBench 等
• 深度搜索与软件工程:
WebWalkerQA, SWE-Bench, Terminal-Bench, GAIA, HLE 等
•知识与MCP:
MMLU, SuperGPQA, MCP-Universe 等
对比基线包括前沿闭源模型(GPT-5.2 High, Claude Sonnet-4.5,Seed2.0等)、强开源基础模型(DeepSeek-V3.2-685B, Qwen3-235B-A22B)以及先进的环境扩展方法(EnvScaler,AWM,ScaleEnv)。
1. 核心智能体任务上表现卓越

表1:在核心智能体工具使用基准上结果。
如上表所示,在当下最具挑战性的三大智能体工具使用基准—MCP-Mark、BFCL V4、τ²-Bench 上,Agent-World-8B与14B稳定超越所有开源环境扩展基线。这三套基准分别考察多轮有状态交互、跨域工具调用与长程对话,连闭源前沿模型在MCP-Mark上也仅停留在50左右的分位。
更有意思的是,Agent-World-14B在BFCL V4上取得 55.8%,反超 685B 参数的DeepSeek-V3.2-685B(54.1%),这也表明更真实的可执行环境与可验证奖励,比参数更能对齐复杂的智能体交互模式。
2. 长程智能体推理能力显著

图6:Agent-World-8B在通用推理、智能体搜索与编码、知识与MCP三大能力组上的泛化表现雷达图,全面领先基线。
如上图所示,当我们把评测扩展到17个覆盖长程推理、深度搜索、软件工程与知识应用的基准,Agent-World-8B依然在所有维度上保持领先:通用推理(MATH500, AIME, OlympiadBench等)未因为Agent 相关训练而退化,甚至微微涨幅;在深度搜索,软件工程领域(GAIA, SWE-Bench, Terminal-Bench等)这类超长轮次任务上优势极为明显。
除此以外,在其他知识类与MCP基准表现同样十分优秀,这证明了Agent-World其通过环境训练获得的技能是可迁移、可组合的,而非针对特定基准的过拟合。

图7:Agent-World系列模型在SkillsBench、ARC-AGI-2、ClawEval等前沿AI助手基准上展现优异性能。
3. 先进AI助手场景显著提升
如上图所示,Agent-World在SkillsBench、ARC-AGI-2和ClawEval这三个要求长程规划和真实世界执行的最新基准上同样表现出色,且从8B到14B规模提升稳定,而其他的基线模型则出现了能力波动。
除了主实验结果,Agent-World还进行了一系列有趣的定量分析。
1、训练环境规模扩展分析

图8:下游智能体性能随着训练环境数量的增加而显著提升,呈现明确的缩放规律。
随着逐步增加训练环境的数量(从0到近2000个),智能体性能与环境数量呈明显的正相关。初期(10到100个环境)性能提升迅猛,说明覆盖关键交互模式至关重要;后期提升放缓但持续,表明更大规模的环境带来了更细粒度的能力提升。
2、自进化轮次分析

表2:持续自主进化的效果。
研究验证了自进化竞技场闭环的有效性。无论是Agent-World模型自身还是基线模型EnvScaler-8B,经过两轮“评估-诊断-针对性训练”的循环后,一致性地在多个基准上的性能获得一致性增益。这证明将环境作为训练场,针对性驱动数据合成,是持续提升智能体环境泛化能力的有效机制。
3、多环境强化学习曲线分析

图8:多环境智能体强化学习曲线展示。
Agent-World虽然在复杂,混合的环境与多样化合成任务(基于工具图与程序化)上进行强化学习,其奖励分数随步数稳步上升,而策略熵保持相对稳定甚至增长,表明智能体在适应新环境的同时,保持了良好的探索性,没有过早地陷入局部最优的“固化”行为。
Agent-World希望通过扩展真实世界环境,实现智能体与环境的持续协同进化。作为本文作者,我们也想抛出一些在推动这项研究中发现的几点启示,供研究通用智能体训练方向的朋友们参考与共同探索:
作者简介:本文第一作者是董冠霆,中国人民大学高瓴人工智能学院博士二年级,导师为窦志成教授和文继荣教授。他的主要研究方向为通用智能体训练。以第一/共同第一作者身份在ICLR、ACL等国际顶级会议发表论文10余篇;代表工作包括 ARPO, AUTOIF, Search-o1, Webthinker, FlashRAG等。谷歌学术引用量1万余次,个人GitHub项目星标8000余枚,并在字节跳动Seed、阿里通义千问等基座大模型团队实习。曾获首届腾讯青云奖学金,国家奖学金、北京市优秀毕业生等荣誉。本文的通信作者为中国人民大学的窦志成教授与字节跳动Seed的钟宛君。
文章来自于"机器之心",作者 "董冠霆"。
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI
【开源免费】kimi-free-api是一个提供长文本大模型逆向API的开渔免费技术。它支持高速流式输出、智能体对话、联网搜索、长文档解读、图像OCR、多轮对话,零配置部署,多路token支持,自动清理会话痕迹等原大模型支持的相关功能。
项目地址:https://github.com/LLM-Red-Team/kimi-free-api?tab=readme-ov-file