
ARPO:智能体强化策略优化,让Agent在关键时刻多探索一步
ARPO:智能体强化策略优化,让Agent在关键时刻多探索一步在可验证强化学习(RLVR)的推动下,大语言模型在单轮推理任务中已展现出不俗表现。然而在真实推理场景中,LLM 往往需要结合外部工具进行多轮交互,现有 RL 算法在平衡模型的长程推理与多轮工具交互能力方面仍存在不足。
在可验证强化学习(RLVR)的推动下,大语言模型在单轮推理任务中已展现出不俗表现。然而在真实推理场景中,LLM 往往需要结合外部工具进行多轮交互,现有 RL 算法在平衡模型的长程推理与多轮工具交互能力方面仍存在不足。
全栈开源生态系统:涵盖Agent框架(MiroFlow)、模型(MiroThinker)、数据(MiroVerse)和训练基础设施(MiroTrain / MiroRL)的全栈开源方案,所有组件和流程均开放共享,便于学习、复用与二次开发。
互联网技术的发展极大地便利了我们的生活,但许多网络任务重复繁琐,降低了效率。为了解决这一问题,研究人员正在开发基于大型基础模型(LFMs)的智能体——WebAgents,通过感知环境、规划推理和执行交互来完成用户指令,显著提升便利性。香港理工大学的研究人员从架构、训练和可信性等角度,总结了WebAgents的代表性方法,全面梳理了相关研究进展。
上上周我们一起测试了六款视频Agent, Agent们手里有一堆音频、视频、剪辑、生图等工具,由他们决定调用顺序成片
从“模型即服务”(MaaS)到“智能体即服务”(AaaS)的转变,标志着AI行业进入了新的发展阶段。我们不再满足于AI的“对话能力”,而是期望它能成为自主完成复杂任务的“全能机器人”。
一句话概括,花大价钱请来的AI智能体天天搁那儿“过度思考”,这篇论文教你如何让它“该省省该花花”,别再当冤大头了,当你给智能体卸掉复杂记忆/冗余规划这些"奢侈品"后,发现它跑得比香港记者还快还便宜。
过去三十年,互联网经历了从静态网页到智能推荐的深刻演变。如今,我们正站在互联网的另一个重大转折点上。 这一转折,来自一种全新的范式设想 —— Agentic Web,一个由 AI 智能体组成的、目标导向型的互联网系统。在这个新框架中,用户不再手动浏览网页、点击按钮,而是通过自然语言向智能体发出一个目标,AI 会自主规划、搜索、调用服务、协调其他智能体,最终完成复杂任务。
2025年初在硅谷创立 Ouraca Inc.,专注打造新一代“AI native” 的终身学习产品线。首款产品 Aibrary正式版即将上线:是全球首个专为个人成长打造的 Agentic AI,它不仅帮助你获取知识,更陪你思考,激发动机,引导行动,让成长真正发生。通过个性化播客、认知引导与行动建议,Aibrary 将书籍与专家洞见转化为你专属的学习旅程。
近期,基于大语言模型的智能体(LLM-based agent)在学术界和工业界中引起了广泛关注。对于智能体而言,记忆(Memory)是其中的重要能力,承担了记录过往信息和外部知识的功能,对于提高智能体的个性化等能力至关重要。
自 2021 年夏季 GitHub Copilot 以预览版问世 以来,编程助手产品呈现爆发式增长。这类工具最初被用作增强型代码补全工具,而 Cursor、Windsurf 等产品则迅速转向了 Agent 交互模式:通过自然语言指令触发,助手能自主执行修改代码文件、运行终端命令等操作。