Claude Code 遭深度逆向!核心技术架构被 95% 还原

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
Claude Code 遭深度逆向!核心技术架构被 95% 还原
8851点击    2025-07-24 12:49

前几天晚上,我在 GitHub 上看到一个让我眼睛发直的项目。


一个叫 shareAI‑lab 的团队对 Claude Code 进行了彻底逆向,并把完整的研究资料、中间的分析过程全部 po 了出来。


Claude Code 遭深度逆向!核心技术架构被 95% 还原


Claude Code 可是 Anthropic 家的当红炸子鸡,是他们在 AI coding 这条路上最拿得出手的产品。


但现在,Claude Code 的底裤被一个民间逆向仓库扒了,曝光了核心技术架构、实现机制和运行逻辑,相当于做了个开箱拆机,连怎么听懂人话、怎么调用工具、怎么记住上下文、怎么防恶意指令,全都曝光了。


仓库地址我放在这里了:


https://github.com/shareAI-lab/analysis_claude_code


(PS:这个项目目前在 archive,作者佬在小红书回应还在更新中)


Claude Code 遭深度逆向!核心技术架构被 95% 还原


先铺个背景方便大家伙儿理解——


大家都知道 Claude Code 本身是闭源的,但为了让 CLI 正常跑,他们还是得把代码随安装包发给用户。所以 CLI 里还打包了一份 50 k+ 行的混淆 JavaScript 代码,只是这份代码被 刻意“打乱、加密、改名”,目的就是把核心算法和 Prompt 逻辑藏起来,让人看不懂,避免别人抄袭了去。这就叫 JavaScript 混淆。


但是 JS 终究要跑在本地,再怎么混淆,Node.js 终究要看到可执行的明文逻辑,这就给逆向者提供了入口。


那这位民间逆向者是咋做的呢?


他们是用 claude code 去分析 claude code(v1.0.33)本身的混淆后代码** **,(哎?听起来像套娃)


Claude Code 遭深度逆向!核心技术架构被 95% 还原


也就是对 5 万行的混淆代码切片,借助 Claude Code 的力量分析 15 个 chunks 文件,再用人肉 + 调试补洞,最后拼出来一份 95% 准确度的“推断版架构”。


Claude Code 遭深度逆向!核心技术架构被 95% 还原


【友情提示】:下面的逆向笔记并非官方文档,README 里写得很直白——“非 100 % 准确,分析过程中 LLM 难免出现幻觉,仅供学习参考”。


先来看看这份逆向推断版的 Claude Code 系统架构全景图:


Claude Code 遭深度逆向!核心技术架构被 95% 还原


最核心的技术映射如下——


Claude Code 遭深度逆向!核心技术架构被 95% 还原


最顶层是用户交互层


无论你是在命令行里敲 Claude、在 VSCode 用插件,还是在 Web 页面上跑,它们背后对接的其实是同一套调度系统。


这一层只负责接收你的指令,并把它们统一编码为 Claude Agent 系统能理解的请求格式。也就是说,不管你从哪个入口发出指令,最终都会被转化为统一的数据格式,由 “Claude 模型大脑”接收和处理。


而这个“大脑”在中间层——Agent 核心调度层


中心是一个叫 nO 的主循环引擎(其实就是 AgentLoop),它负责管理一切智能体行为的“总调度室”。流程图是这样的:


Claude Code 遭深度逆向!核心技术架构被 95% 还原


你每输一句话,它就得判断:


  • 是不是新任务?
  • 需要调用哪些工具?
  • 哪些 Agent 该被唤醒?
  • 哪些历史信息要压缩?
  • 有没有地方出错要补救?


这些决策的执行,要靠它左手的h2A 消息队列(负责异步传输和流式反馈),右手的 wu 会话流生成器(实时生成文字输出),加上一套名为 wU2 的压缩引擎来动态优化你用过的上下文。


注意,这里没有一个地方是模型在跑。模型本身只是调度结果中的一个工具,它只是整个流程中的一个“被调用者”。真正做判断、做协调的,是这一整套调度引擎和运行时逻辑。


往下是工具执行与管理层,也是 Claude Code 最像“中台”的地方。


它负责调度具体的子 Agent。比如你发一个“运行 shell 命令”的请求,它就会调出负责 bash 执行的 Agent;你要求读取项目目录,它就找出读写权限最小的文件管理 Agent。


这些 Agent 都受控于几大核心部件:


  • MH1 工具引擎:发现工具、校验参数、分配任务;
  • UH1 并发调度器:限制并发量、防止资源争抢;
  • SubAgent 管理器:给每个子任务分配独立 Agent,并做任务隔离;
  • 权限验证网关:判断你这个 Agent 能不能运行某条命令、能不能访问某个文件、有没有联网权限。


也就是说,Claude 不是一次性调一个“大助手”来干活,而是每个任务都生成一个独立的“子 Agent”,然后严格按照权限、状态、工具能力来分发执行。


继续往下,是工具生态系统


这就是 Claude Code 真正的“武器库”。上百个分类明确、职责清晰的小工具,从文件读写、命令执行,到网络搜索、任务管理、MCP 集成、性能诊断应有尽有。


Claude Code 遭深度逆向!核心技术架构被 95% 还原


你以为 Claude 在思考,其实它只是在调用:


  • 谁擅长这类问题?哪个 Agent 适合?
  • 有没有需要配合的两个工具一起跑?


这种工具生态不是插件,而是结构化地配置在系统里。


工具的定义方式是文件级别,每一个工具都是一个可管理、可审计、可热加载的模块单元。你甚至可以自己写一个 .yaml 文件扔进目录里,Claude 立马能发现它、加载它、赋权限。


最底层,是存储与持久化系统


这是 Claude 记忆力的来源,整个记忆架构分三层。


Claude Code 遭深度逆向!核心技术架构被 95% 还原


它是按时间维度、压缩策略、任务粒度分层处理记忆:


  • 当前会话 → 放在 Messages 里,支持即时交互;
  • 中期摘要 → 放进 Compressed 模块,由 wU2 压缩器负责优化;
  • 永久偏好 → 写入 CLAUDE.md,包括你常用语言、项目结构、喜好工具等;
  • 系统状态 → 存在 StateCache 里,比如某工具运行次数、是否曾报错、是否因权限受限被禁用等。


每一次调用、每一个决策,其实都依赖于这些存储结构的回忆。


Claude Code 并不依赖于云端记忆,而是靠本地状态文件、上下文压缩算法、状态缓存系统构建出一个“类人记忆”的思维体系。


这就是 Claude Code 系统架构的全貌。


Claude Code 遭深度逆向!核心技术架构被 95% 还原


它把一套多 Agent 系统跑得像流水线一样顺滑。Claude Code 早就不是一个“智能补全”的工具了,它是一套 AI 时代的“本地分布式 Agent 操作系统”。


说到这里,很多人可能还是觉得,这不就是多加了几个 Agent 和工具嘛,有啥真正厉害的地方?


错了。


如果你真的打开那份逆向分析文档,你会看到一个句子像电流一样穿过代码注释和调度日志:Claude Code 的真正突破,不在于调了几个工具,而在于它让这些 Agent 之间的协作,变成了“实时的、稳态的、动态可控”的过程。


简单说,它不仅能调,还能边调边改方向,边跑边让不同 Agent 对齐节奏。这听起来像废话,但工程上能做到的几乎没有。


另外,项目作者还整理了这里面的重要的技术创新,实时 Steering 技术和 智能上下文压缩算法。


实时 Steering:从“触发”到“引导”的跃迁


大多数 AI 工具的调度逻辑是触发式的,也就是你下个请求,我执行一次;你换个指令,我再跑一遍。但 Claude Code 的 h2A 消息队列,不是“等你发完才处理”,而是能在指令刚输入一半时就启动流程,并边接收、边调度、边调整。


Claude Code 遭深度逆向!核心技术架构被 95% 还原


我们在逆向文档里看到它的核心机制用的是“双缓冲队列 + 条件触发消费”,伪代码如下:


class h2AAsyncMessageQueue {

enqueue(message) {

// 策略1: 零延迟路径 - 直接传递给等待的读取者

if (this.readResolve) {

this.readResolve({ done: false, value: message });

this.readResolve = null;

return;

}


// 策略2: 缓冲路径 - 存储到循环缓冲区

this.primaryBuffer.push(message);

this.processBackpressure();

}

}


简单来说,它不是等消息“堆满”才动,而是只要有人等,它就立刻传;没人等,它就缓冲 + 限流。再加上流式写回机制,这就保证了 Claude 可以边生成文字、边调整任务、边响应新输入。


这才是真正的“Steering”,你能在它做的时候,随时发指令“换方向”,它立刻响应。


智能上下文压缩:用算法判断保留谁在说话


Claude 的第二个重大创新,是我们看到的 wU2 上下文压缩系统。


很多 AI 产品都在解决一个问题:上下文太长,token 爆炸,要裁剪。但大多数产品是靠“历史越久越删”“内容越长越删”,要么全砍,要么硬塞。


Claude 不一样。它用了一种 “重要性加权 + 策略性摘要”的压缩法。


比如这段触发逻辑:


// 压缩触发逻辑

if (tokenUsage > CONTEXT_THRESHOLD * 0.92) {

const compressedContext = await wU2Compressor.compress({

messages: currentContext,

preserveRatio: 0.3,

importanceScoring: true

});

}


意思是,当 token 使用量超过阈值 92%,系统就会调用压缩器进行上下文重构。但不是压缩全部,而是按“重要性”打分,只保留 30% 的最关键段落,剩下的提炼成摘要。


这一设计让 Claude 在执行任务时,可以更精准地维持上下文的“记忆完整度”。压缩操作不以时间或长度为主维度,而是以内容关键性为准则,减少冗余信息对模型推理的干扰,同时维持对历史任务、用户偏好和中间变量的追踪能力。


这也是为什么用户在与 Claude 进行长时间交互时,会感觉它记得住,并且记得的都是重点,不容易断片。


从这次的逆向文档中,我们第一次清晰地看到了什么是真正有工程厚度的 Agent 产品。


它并不追求一句话能做多少事,而是让每一句话的背后,都能安全、高效、合理地调度十个 Agent。


而且关键是,它是真的跑起来了


它让我们看到一个事实:


未来的 AI 编程助手,不会是 ChatGPT 的一个功能分支,而是一个具备工程稳定性、安全性、组织能力的智能体操作平台。


文章来自于“夕小瑶科技说”,作者“R.Zen”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


2
文件重命名

【开源免费】ai-renamer是一个用AI帮你做文件夹或者图片命名的项目。该项目会根据文件夹或者图片内容来为文件进行重新命名,让你的文件管理更加便利。

项目地址:https://github.com/ozgrozer/ai-renamer

3
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

4
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0