中国首个推出兼容E2B接口Agent沙箱的公司。
7月26日,2025世界人工智能大会(WAIC)现场人头攒动。在科技要素拉满的会场内,几乎每个展台都在讨论大模型和AI Agent。
毫无疑问,Agent是2025年最火的话题,这届WAIC也是有史以来“Agent含量”最高的一届大会。展会上随处可见的覆盖生活服务、商业办公,金融、工业制造、公共服务与安全领域等领域的智能体。
根据市场咨询公司MarketsandMarkets预测,全球AI智能体市场将从2024年的51亿美元增长到2030年的471亿美元,年复合增长率达44.8%。
狂奔的Agent也对AI基础设施提出了更高的要求。尽管当前的AI Infra已经进入了“基础设施层-工具链层-应用层”协同演进的中级阶段——GPU/TPU可以集群规模化部署,Kubernetes容器化调度成为标配,湖仓一体架构的普及率超75%、端边云协同架构也在智慧城市/工业场景落地,但是距离Agent真正大规模普及,仍然面临安全性(Agent权限控制复杂、数据泄露风险)、可靠性(长时间运行稳定性、错误恢复机制)、性能(大规模并发处理、资源调度效率、成本控制)三个方面的问题。
可以说,当前Agent Infra正处于“从概念验证向规模化应用转型”的过渡阶段,预计2025年下半年到2026年将是Agent Infra大规模商业化部署的关键时期,基础设施的成熟度将决定整个Agent生态的发展速度。
也正是在一众展示“应用”和“Agent”的WAIC上,我们看到了PPIO 在Agent基础设施上的一些进展——他们将焦点放在了Agent运行的“地基”上,正式发布了其Agentic AI基础设施服务平台,它由AI智能体平台(通用版)和AI智能体平台(企业版)两大产品组成。
WAIC上的PPIO展台,图源:PPIO
其中,AI智能体平台(通用版)主要面向个人开发者与中小企业。它以高性价比的分布式GPU云为底座,整合了兼容E2B接口的Agent沙箱和一站式模型服务API平台,旨在为广大创新者提供一个兼具性能、效率与成本优势的“开箱即用”的Agent开发环境。
平台的核心,是一款名为“Agent沙箱”的产品。在WAIC众多展示全新Model和Agent的企业中,PPIO是为数不多将“沙箱”这一幕后英雄推向台前的公司。
2025年毫无疑问是Agent大年,Manus、Genspark、Flowith、Fellou、Lovart等新产品同台竞技,扣子空间、天工超级智能体等大厂推出的Agent产品也层出不穷,OpenAI和Minimax等有实力的AI创业公司也推出了自己的Agent产品。
以Manus为例,这款AI个人助理在海外市场一经推出便迅速走红,其强大的代码理解、生成和执行能力让开发者社区为之沸腾,火爆程度可见一斑。
众所周知,代码执行能力是Agent的灵魂。但它也像一把双刃剑,带来了安全、隔离和性能这三座压在开发者心头的大山。一个看似无害的用户请求可能导致Agent生成恶意代码;传统的容器隔离因共享内核而存在天然风险;而笨重的虚拟机又难以满足Agent对弹性和效率的极致追求。
可以说,当前的Agent开发正面临着“能力强大”与“风险未知”的悖论。如何为这个潜力无限的新物种提供一个既能让它自由驰骋、又能保证其绝对安全的“试炼场”,已成为整个行业的核心议题。
而Agent沙箱,正是解开这个悖论的关键钥匙。
“沙箱”一词,形象地描绘了一个受限且安全的环境,它允许不可信或具有潜在风险的代码在其中运行,而不会对外部系统造成破坏。沙箱不是某一项具体技术,而是一类安全隔离机制,用来控制一个程序或代码的运行范围,防止它访问、篡改、破坏系统之外的资源。
这种为AI智能体提供隔离运行环境的基础设施,正在成为Agent生态的刚需。从Manus、Genspark等明星应用,到OpenDevin等开源项目,背后都离不开沙箱环境的支持。市场的热度也印证了这一点:云沙盒领域的创业公司E2B,其沙盒月创建量在一年内从4万暴增至1500万,实现了375倍的惊人增长。
在退出中国前,Manus的技术团队曾在今年5月向开发者开放部分架构文档。文档显示,Manus的自动编程Agent依赖沙箱环境执行代码——这是AI安全领域的通用方案:将不可预测的AI行为禁锢在隔离环境中,防止其删除系统文件或窃取隐私数据。
Manus的实践,印证了Agent对专属“沙箱(Sandbox)”的刚性需求。
沙箱思想源于20世纪70年代,最初旨在解决软件容错问题。到了90年代,为应对日益泛滥的计算机病毒,沙箱被用于创建隔离环境以安全地分析恶意代码,Cuckoo Sandbox便是这一时期的代表。
Cuckoo Sandbox是这一时代的代表作,图源:Cuckoo Sandbox 官网
90年代末,随着个人计算机和网络的普及,保护系统免受不可信应用侵害的需求,推动了Java虚拟机(JVM)等沙箱技术的商业化。而万维网的兴起和跨站脚本(XSS)等新威胁,也催生了专为浏览器设计的沙箱。
进入21世纪,以VMware为代表的虚拟机(VM)技术提供了强大的硬件级隔离,但也因资源占用大、启动慢而显得“太重”。
VMware工作站,图源:PC World
2013年,Docker容器技术以其轻量、快速的优势成为新宠,但所有容器共享宿主机内核,其隔离性天生弱于虚拟机,带来了天然的安全隐患。
可以看到,从最初用于恶意软件分析的传统安全沙箱(如Cuckoo Sandbox),到提供更强隔离但过于笨重的虚拟化技术(VMware),再到轻量、快速但共享内核存在安全隐患的容器技术(Docker),每一种隔离技术都在隔离性、性能和资源占用之间艰难平衡。
直到AWS开源了Firecracker MicroVM技术,才为这个问题找到了一个更优解。它结合了虚拟机的强隔离性和容器的轻量化优势,实现了毫秒级启动和硬件级安全隔离。
这恰恰完美契合了AI Agent对沙箱的需求:既要启动快、响应及时,又要绝对安全、互不干扰。
以E2B为例,他们选择将复杂的沙箱技术封装成简单的API,使用Firecracker作为底层技术,保证了虚拟机级别硬件隔离的安全性、毫秒级启动的性能和高密度部署的低运营成本。
PPIO也抓住了这一技术演进的脉搏,在国内云厂商中率先推出了中国首款兼容E2B 接口的Agent沙箱,它为Agent设计了一个"安全隔离"的远程高效运行环境,使Agent 的所有操作都发生在一个"受限、可控"的沙箱环境中,帮助Agent长出可执行的手和脚,去调用各种工具,如Browser Use、Computer Use、MCP、RAG、Search等。
WAIC上PPIO发布Agent沙箱,图源:PPIO
PPIO Agent沙箱具备以下优势特性:
首先是强安全隔离。通过Firecracker MicroVM技术,PPIO将不同Agent沙箱的环境实现完全隔离。当多个任务并发执行时,每个任务都能在独立环境中运行,从根源上避免数据泄漏和资源抢占冲突。
例如,在一个Agent平台上,若有多位用户同时提交任务一有人处理个人简历,有人分析投资数据。若这些任务在同一环境运行,极易造成个人信息泄露,或因某个任务崩溃影响所有用户。而借助PPIO Agent沙箱的隔离技术,每个用户的任务都能在专属独立环境中运行,确保数据安全且互不干扰。
其次是毫秒级启动速度。传统虚拟机沙箱启动往往需要数分钟甚至更长时间,而PPIO Agent沙箱平均启动时间小于200ms。这种快速启动能力,能让Agent在用户开发应用时,瞬间创建沙箱环境、运行生成的代码并展示预览效果,大幅提升用户的开发流畅度。
最后是高并发创建能力。PPIO Agent沙箱具备同时快速启动数千个沙箱实例的能力,可充分满足业务场景中的高并发需求。在用户活跃高峰时段,Agent平台可能同时接收上千名用户提交的数据分析、代码生成、文档处理等复杂任务。沙箱的高并发特性能够让每个任务快速获得运行环境,从而加快结果交付速度,保障用户体验。
正如人一样,一个强大的Agent,仅有“手”和“脚”是不够的。它还需要聪明的“大脑(模型与工具)”和强大的“能量供给系统(算力)”。
「甲子光年」认为,复杂工作流的编排能力、高质量的工具集成与维护能力以及特定领域知识的沉淀与优化能力是企业级Agent的三大支柱,这就要求企业在构建Agent的时候必须要在选择模型、定义工具、做Prompt提示、编排工作流的每一步都做到精益求精。
图源:甲子光年《企业级AIAgent(智能体)价值及应用报告》
通常来说,企业在构建智能体时要构建四层,分别是任务规划层、行动执行层、环境交互层和资源调度层。其中,任务规划层是大模型的用武之地,负责理解意图、拆解任务;行动执行层则依赖于丰富的工具集;环境交互层就是我们刚刚讨论的沙箱,提供运行环境;而资源调度层则确保这一切能够经济高效地运转。
PPIO在WAIC上发布的另外两款产品——模型服务和GPU云,正是为其Agentic Infra平台配齐了模型、工具和算力这三大核心组件。
开发者在构建Agent时,常常陷入“模型选择困难症”:不同模型各有优劣,API接口五花八门,切换成本高昂。与此同时,处理复杂任务的Agent对模型的长上下文能力要求越来越高。
比如,某电商平台的构建了智能客服Agent,在处理复杂售后问题时,当用户先询问“我的订单什么时候到货",接着问"如果不满意能退货吗”时,由于系统无法关联前后问题的上下文,导致回答不准确。该系统上线初期,有30%的多轮对话因上下文丢失而需要人工介入。
而PPIO的模型服务平台更像个“模型超市”。
在模型聚合与兼容方面,它整合了DeepSeek、Qwen3、Kimi、MiniMax M1等国内外主流的开源和商业大模型,支持百款主流开源与定制 AI 模型的快速接入、弹性部署与高效调用,并提供统一、兼容OpenAI的API调用方式。助力开发者与企业快速构建 Agent 应用,实现规划、记忆、执行等完整的 Agent 任务的核心需求。
在上下文方面,PPIO在业内率先完成了DeepSeek上下文窗口的升级,将上下文窗口扩展至160K,最大输出扩展至160K,可满足多轮超长对话、Agent深度分析等场景长输出应用需求;针对Agent的执行能力,PPIO率先支持Kimi-K2、Qwen3 Coder等代码模型,可以实现强大的自主编程、工具调用和数学推理能力。这为构建能处理复杂任务的深度Agent提供了坚实基础。
同时,PPIO 模型服务平台还提供涵盖文本、语音、视频、图像等多模态模型支持,满足多样化 Agent 应用需求。
PPIO Model API平台,图源:PPIO
除了模型选型和工具调用,高昂的算力成本是企业在构建Agent时面临的又一门槛。Agent的每一次思考和行动背后都是GPU算力的消耗,如何获得高弹性、低成本、高性能的推理算力,是所有Agent开发者关注的焦点。
针对Agent算力使用的问题,PPIO的GPU云服务则凭借两大优势给出了解法:
第一是技术驱动降本。PPIO自研了高性能推理引擎,通过算子融合、低精度量化、投机采样等一系列优化技术,在不牺牲质量的前提下,将模型推理效率提升了7倍以上,理论运营成本降低超过85%。这意味着开发者能以更低的成本,让Agent运行得更快、更聪明。
第二是分布式计算。PPIO的核心团队源自中国最早的P2P视频平台PPTV,拥有近20年的大规模分布式计算和资源调度经验。其运营的核心是一个强大的分布式算力网络调度平台,通过智能工作负载调度,架构可降低底层硬件异构性,实现多样化计算资源的无缝集成,并为上层应用提供标准化接入点。此外,基于轻量级云原生架构,系统能够高效组织分散边缘计算资源。
PPIO GPU云服务,图源:PPIO
高性能推理引擎和分布式计算让PPIO能够高效地聚合和调度全球范围内的闲置GPU资源,通过“削峰填谷”的模式,为开发者提供极具性价比的AI推理算力。
因此,如果说Agent沙箱是Agent运行的“安全底座”,那么模型服务就是其能力的“大脑”,而GPU云则是驱动其运行的“能量供给系统”。三者结合,才构成了一个完整的Agentic Infra平台。
基于这套技术底座,PPIO在AI智能体平台(通用版)之外,还面向需求更多元、更复杂的中大型企业,推出了AI智能体平台(企业版)。该版本深度联动PPIO的算力服务、行业应用与开放生态,凭借长期记忆、流程可控、全域操作、业务联动、多模态协同等五大差异化优势,致力于为教育、工业、金融等行业打造“能听会看、善思会做”的深度定制化智能体解决方案。
在AI Infra这个巨头林立的赛道,前有阿里、百度、华为等大厂,后有各大创业公司。为什么是PPIO率先抓住了Agentic Infra的机遇?
答案藏在它的发展历程和技术基因里。
PPIO的创始人姚欣和王闻宇,是中国互联网圈的“老兵”。他们创立的PPTV,曾是P2P流媒体时代的标杆。这段经历为PPIO注入了强大的分布式技术基因。
早在2019年,PPIO就推出了边缘云计算业务,基于共享经济的商业模式,结合行业领先的边缘云原生、大数据、分布式计算技术,在网络边缘侧基础设施上,建构了覆盖全球的高质量边缘云计算服务网络及算力调度平台,汇聚和管理异构资源的闲置算力,以最优方式向客户部署,从而加速内容传输及提升低延迟计算体验。
2023年,随着生成式AI浪潮的到来,PPIO敏锐地捕捉到AI推理需求的爆发,果断将业务重心全面转向AI云计算服务。依托推理加速、模型微调、分布式计算等创新技术,释放推理计算潜能,为企业和开发者提供高性价比、弹性、易用的GPU容器实例、模型托管和AIGC大模型等一站式AI服务。同时,PPIO也助力客户摆脱搭建和运维服务器的繁琐,更省钱、省时、省力地构建AIGC应用。
而随着Agent的崛起,PPIO的云服务也从“边缘计算”、“AI推理”,逐渐向“Agent基础设施”过渡。这是一条逻辑清晰的升级路径:如果说边缘云验证了其分布式资源调度的能力,推理云证明了其服务AI负载的能力,那么Agentic Infra平台就是这一能力的集大成者。因为Agent正是分布式、异构、按需调度的基础设施的“终极用户”,它的每一次自主行动,都可能需要动态、瞬时地调用模型、算力、工具和安全的运行环境。这正是PPIO过去7年一直在构建和完善的核心能力。
从PPTV时代的分布式视频,到今天的分布式AI算力,PPIO始终在做一件事:将分散的计算资源高效地组织起来,以更低的成本服务于最前沿的应用场景。
基于其分布式计算网络,PPIO不仅向开发者按需提供GPU算力资源的租赁服务,还会将企业或开发者的闲置硬件纳入节点网络,通过共享算力获取收入分成。
目前,PPIO已建成覆盖1200多个县市、拥有4000多个计算节点的分布式算力网络。这种高密度计算节点部署使本地分布实现毫秒级时延(短至10毫秒),为实时音视频内容传输、AI推理等场景提供了基础设施支撑。而截至2025年6月,PPIO的日均token消耗量已达2000亿次,在中国独立AI云计算服务供应商中位列前两名,商业化进展迅速。
作为一家独立的分布式云计算服务商,PPIO相较于被生态绑定的大厂云,拥有更中立、更灵活的定位。它可以不受限制地集成全球最优秀的模型和算力资源,为开发者提供一个开放、兼容的工具平台,这对于希望避免厂商锁定的AI开发者而言,具有极大的吸引力。
每一次计算范式的变革,都始于基础设施的奠基。从PC时代的操作系统,到互联网时代的服务器与带宽,再到移动互联网时代的应用商店与云服务,无一例外。如今,AI Agent正以前所未有的速度,开启一个新的计算范式。它不再是简单的工具,而是能够自主思考、执行任务的“数字员工”。而这场变革的前夜,基础设施的战争已经悄然打响。
PPIO在WAIC上发布的Agent沙箱及整套Agentic Infra平台,不仅是一次产品亮相,更是其对“谁来为Agent基建”这一时代问题的深刻回答。它以一个先行者的姿态,为国内Agent开发者生态点燃了星星之火。未来,PPIO能否真正成为“Agent时代的AWS”仍有待商榷,但可以肯定的是,这场关于Agent Infra的竞赛,已经正式拉开帷幕。
文章来自于微信公众号“甲子光年”,作者是“王艺”。
【开源免费】OWL是一个完全开源免费的通用智能体项目。它可以远程开Ubuntu容器、自动挂载数据、做规划、执行任务,堪称「云端超级打工人」而且做到了开源界GAIA性能天花板,达到了57.7%,超越Huggingface 提出的Open Deep Research 55.15%的表现。
项目地址:GitHub:https://github.com/camel-ai/owl
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!
项目地址:https://github.com/coze-dev/coze-studio
【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。
项目地址:https://github.com/n8n-io/n8n
在线使用:https://n8n.io/(付费)
【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。
项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file
【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。
项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file
在线使用:https://vectorvein.ai/(付费)
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0