CC直接用,Manus核心Context技术被人做成了Skills

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
CC直接用,Manus核心Context技术被人做成了Skills
9148点击    2026-01-08 08:39

planning-with-files是开源社区最近疯传的一个Skill,发布仅四天收获3.3k star。目前还在持续增长。


CC直接用,Manus核心Context技术被人做成了Skills


爆火的原因很简单,因为这个项目的核心极具吸引力:它通过一个标准的Claude Skill,复刻了Meta斥资20亿美元收购的Manus公司的核心技术——上下文工程(Context Engineering)


本文将带你深入代码层,看这个项目的Skill是如何用仅用几百行指令和三个Markdown文件,就在你的本地终端里模拟了价值20亿美元的Agent核心工作流。


项目地址:https://github.com/OthmanAdi/planning-with-files


Manus的六大上下文工程原则


Manus之所以能从众多Agent创业公司中突围,并非因为它拥有更强的模型,而是它重新定义了模型与上下文交互的方式。在 planning-with-files 项目的 reference.md 中,详细记录了这六大原则:


CC直接用,Manus核心Context技术被人做成了Skills


1.文件系统作为外部记忆 (Filesystem as External Memory)

  • 原理:不要依赖易失的Context Window。将磁盘视为无限的“外挂内存”,只在Context中保留文件路径。

2.通过重复进行注意力操纵 (Attention Manipulation Through Repetition)

  • 原理:对抗“Lost in the Middle”。在关键决策前反复读取计划文件,强行刷新模型的“注意力权重”。

3.保留失败痕迹 (Keep Failure Traces)

  • 原理:错误是宝贵的资产。显式记录失败尝试,让模型通过“反思”避免死循环,而不是掩盖错误。

4.避免少样本过拟合 (Avoid Few-Shot Overfitting)

  • 原理:在重复性任务中引入受控变体,防止模型陷入机械式的幻觉。

5.稳定前缀优化缓存 (Stable Prefixes for Cache Optimization)

  • 原理:通过固定的文件结构和前置指令,最大化KV-Cache命中率,降低Token成本。

6.只增不改的上下文 (Append-Only Context)

  • 原理:尽量以追加(Append)而非修改(Modify)的方式更新信息,维护上下文的连贯性。


架构落地:三文件模式


planning-with-files Skill将上述抽象原则具象化为一套严格的 “三文件工作流”


当这个Skill被触发时(例如你要求“帮我策划并开发一个贪吃蛇游戏”),它会强制Claude在当前目录维护三个文件:


CC直接用,Manus核心Context技术被人做成了Skills


1. task_plan.md(指挥塔 寄存器)


这是整个架构的核心。它不存储具体知识,只存储元数据


  • 作用:定义目标、拆解阶段、追踪进度、记录错误。
  • 关键机制:它是Agent的“罗盘”。无论任务进行到第几步,Agent必须在每次行动前读取此文件。


2. notes.md(知识库 堆内存)


  • 作用:存储调研笔记、网页摘要、中间代码。
  • 关键机制“Store, Don't Stuff”。当Agent搜索到大量资料时,禁止直接输出到对话框,必须写入此文件。这保持了对话上下文的清爽。


3. [deliverable].md(产出物 IO缓冲区)


  • 作用:最终的交付结果(如 game.py 或 report.md)。
  • 关键机制:将“思考过程”与“最终结果”物理隔离。


三文件如何工作?


对于Claude Code用户来说,安装这个Skill后,最直观的变化是你的工作目录下会多出三个文件。但这不仅仅是文件,它们构成了一个基于文件的状态机(File-Based State Machine)


CC直接用,Manus核心Context技术被人做成了Skills


让我们透视一下当你输入“帮我策划并开发一个贪吃蛇游戏”时,这套协议是如何接管Claude的行为的:


CC直接用,Manus核心Context技术被人做成了Skills


阶段0:协议握手与状态机初始化


Claude Code识别到复杂任务,Skill激活。它首先创建 task_plan.md。 这不是普通的文档,它是Agent的程序计数器(Program Counter)


CC直接用,Manus核心Context技术被人做成了Skills


  • 它定义了 Goal(全局指令)。
  • 它将任务拆解为 Phases(指令流水线)。
  • 它标记了 Status(当前指针位置)。


此时,无状态(Stateless)的LLM第一次拥有了“状态”。


阶段1:Read-Before-Decide(对抗遗忘)


在开始写任何代码之前,Skill强制Claude执行 read_file task_plan.md。 这一步至关重要。


CC直接用,Manus核心Context技术被人做成了Skills


  • 如果没有这一步,Claude可能会基于上文的闲聊或20轮之前的记忆开始瞎猜。
  • 有了这一步,Claude的Context尾部被注入了最新的状态:“我现在处于Phase 2,目标是修改Login接口,且之前在Phase 1已经确认了Token格式。”
  • 这相当于在每次CPU时钟周期开始时,强制执行一次Fetch Instruction


阶段2:Data Offloading(数据卸载)


Claude需要查阅OAuth2.0的最新协议。


  • 传统模式:Claude搜索网页,把5000字的协议全文塞进对话框。你的Token在燃烧,模型被无关信息淹没。
  • 本模式:Claude搜索网页,提炼核心参数,写入 notes.md。在对话框里,它只说:“协议参数已存入notes。”
  • 这相当于操作系统的Swap机制,把不常用的数据换出到磁盘,保持主存(Context Window)的清爽。


阶段3:State Commit(状态固化)


代码修改完成,测试通过。Claude必须编辑 task_plan.md


  • 将 [ ] Phase 2 改为 [x] Phase 2
  • 更新 Status 到 Phase 3。 这相当于Write Back。它赋予了LLM时间感,明确地知道什么是“过去”(已完成),什么是“未来”(待完成)。


它解决了什么?


这套Skill不是为了炫技,而是精准打击了LLM在长程任务中的四大死穴:


痛点1:易失性记忆 (Volatile Memory)


  • 现象:多轮对话后,Claude code忘了之前定义的变量或需求。
  • 解法文件系统持久化。即使对话Session重置,只要 notes.md 和 task_plan.md 还在,Agent就能瞬间“恢复记忆”,继续工作。


痛点2:目标漂移 (Goal Drift)


  • 现象:执行50步后,Claude code沉迷于细枝末节,忘了原始目标。
  • 解法Read-Before-Decide(行动前读取)
  • Skill强制规定:Before major decisions, READ task_plan.md
  • 利用Transformer的近因效应,刚读入的Plan处于Context最末端,权重最高,时刻提醒Agent“不要跑偏”。


痛点3:隐藏错误 (Hidden Errors)


  • 现象:API调用失败,Claude code默默重试,导致死循环或成本爆炸。
  • 解法Error Persistence(错误持久化)
  • task_plan.md 中包含 ## Errors Encountered 章节。
  • Agent被要求将所有失败显式写入。下次读取计划时,它会看到“路径A失败过”,从而自动推理出路径B。


痛点4:上下文填充 (Context Stuffing)


  • 现象:把无关紧要的搜索结果全塞进Context,导致模型变笨、变慢、变贵。
  • 解法Offloading(卸载)
  • 所有长文本默认进 notes.md。Context中只保留一句:“已将搜索结果存入notes.md,关键点如下...”。


Skill剖析


这个Skill的神奇之处在于它并没有修改Claude的模型权重,完全通过 SKILL.md 中的Prompt Engineering实现。


让我们看看 planning-with-files/SKILL.md 的关键片段:


CC直接用,Manus核心Context技术被人做成了Skills


1. 自动触发机制: YAML头部定义了Skill的元数据。当用户输入“帮我规划...”、“研究...”或“这个任务很复杂”时,Claude会语义匹配 description,自动挂载此Skill。


2. 负面约束 (Negative Constraints)


CC直接用,Manus核心Context技术被人做成了Skills


Skill使用了极强的命令语气,在System Prompt层级锁定了Agent的行为模式。


3. 循环定义: Skill显式定义了 Read Plan -> Act -> Update Plan 的闭环逻辑,将Agent从线性的问答机器变成了有状态的循环执行者。


如何安装与使用


安装


在你的终端中运行(假设你已配置Claude Code):


cd ~/.claude/skills

git clone https://github.com/OthmanAdi/planning-with-files.git


验证


重启Claude Code,输入: > /skills 你应该能看到 planning-with-files 出现在可用Skill列表中。


使用


直接对Claude说:


“研究一下Rust语言在嵌入式开发中的优势,并写一份报告。”


你会看到Claude自动


  1. 创建 task_plan.md
  2. 规划“搜索”、“阅读”、“撰写”三个阶段。
  3. 执行搜索,将结果写入 notes.md
  4. 每完成一步,自动更新 task_plan.md 的Checkbox。
  5. 最后生成报告。


结语


尽管业界对于Manus是否具备底层技术壁垒存在争议,但不可否认,它依然属于Context Engineering的优秀范例。


这说明除了提升模型本身以外,构建良好的认知架构(Cognitive Architecture) 同样重要。通过简单的文件读写和流程约束,就能让现有的模型发挥出超越参数规模的稳定性。


对于每一位AI开发者来说,理解并掌握这种“文件即记忆”的设计模式,是2026年的必修课。


文章来自于“AI修猫Prompt”,作者 “AI修猫Prompt”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
OWL

【开源免费】OWL是一个完全开源免费的通用智能体项目。它可以远程开Ubuntu容器、自动挂载数据、做规划、执行任务,堪称「云端超级打工人」而且做到了开源界GAIA性能天花板,达到了57.7%,超越Huggingface 提出的Open Deep Research 55.15%的表现。

项目地址:GitHub:https://github.com/camel-ai/owl

2
AI工作流

【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!

项目地址:https://github.com/coze-dev/coze-studio


【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/付费

3
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

4
知识库

【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。

项目地址:https://github.com/labring/FastGPT

5
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0