Claude Code + 开源工具的暴力工作流,下次直接躺赢

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
Claude Code + 开源工具的暴力工作流,下次直接躺赢
8062点击    2026-03-05 09:10

前两天有个朋友问我最近在忙什么。


我说翻了两本书。


一本回忆录,542 页。一本讲 OpenAI 和 DeepMind 的,350 页。加起来四十多万字中文。


他说你翻了多久。


我说第一本花费半天,第二本半小时。


他沉默了大概五秒钟,然后说:“你是不是在测试我的智商。”


我把 Claude Code 的操作日志截图发过去了。


Claude Code + 开源工具的暴力工作流,下次直接躺赢


他看了半天,回了一个字:靠。。然后追了一句:“你不是搞媒体的吗。”


对,跟翻译八竿子打不着。


这个反差我自己也没完全消化。所以今天想把整个过程从头拆一遍。重点不是翻译技术,重点是我在这件事上发现的一个快速搭建 AI 工作流的办法。


先把故事讲完。


13 万词丢过来的时候我的第一反应


拿到第一本书,我就抱着试一下的心态。


是一本人物的回忆录,542 页,13.3 万英文词,题材是军事政治类。术语密度高得离谱,光人名就有几十个,每个人在书里还有两三种写法。


如果让专业译者翻,少说两三个月,报价几万块。我的第一反应是:Claude Code 直接翻吧。


但稍微一算账,13 万词逐段丢给 Claude,几百万 token,API 费三四百块,更要命的是得等七八个小时。


幸好没有回车。


我做了一件特别不起眼但事后看来特别关键的事:先去 GitHub 上搜了一圈。


十来分钟。就十来分钟。


翻到一个叫 LinguaGacha 的开源项目。1500 多个 star,专门干批量翻译。术语表注入、断点续翻、高并发,能接任何 OpenAI 兼容的 API。简单说就是一条翻译流水线,不聪明但够用。


Claude Code + 开源工具的暴力工作流,下次直接躺赢


Claude Code 虽然聪明,能调研术语、能审校、能排流程。但你让它一段一段翻 13 万词,有点大材小用。LinguaGacha 优点是翻得快,术语一致性好。


一个当大脑,一个当双手。完美。


这里我必须讲一个反面教训,不然你体会不到“先搜十分钟”这件事有多重要。


去年我想做一个自动剪视频的工具。上来就让 AI 从头写。Python 脚本、ffmpeg 调用、字幕识别,折腾了大半天,bug 一个接一个,最后出来一个勉强能跑的半成品。我还挺得意。


做完之后随手搜了一下 GitHub。


有个现成的开源项目。功能比我的好十倍。star 数四位数。我只需要在上面改改就行了。


大半天白费了。。。


问题出在哪呢?跟 AI 对话太方便了。随手就能生成一大段代码,一问一答之间特别有成就感。但这种成就感有毒。它让你忘了一个基本事实:你遇到的问题大概率有人已经解决过了,而且解决得比 AI 临时生成的好得多。


开源社区几百万个项目摆在那呢。你的需求真没那么独特。


所以这次翻书,我老老实实先搜了十分钟。然后省了可能一整天的弯路。


投资回报率高得离谱。


工具选好了,怎么开始的呢。


我懒得自己学 LinguaGacha 怎么用,就打开 Claude Code,把 docx 文件路径丢进去,后面跟了四句话,让他自己学 LinguaGacha,自己翻译、自己整理:


你需要翻译这个大文件,先过一遍术语表,然后用 https://github.com/neavo/LinguaGacha 这个项目翻一下,最后用 claude code 核对整理格式,检查一遍。Lingua 可以用三方兼容 openai 的模型,你可以先读 wiki 文件,貌似不支持 pdf。我建议你先结合网络搜,用子 agent 啥的,确认好术语表再开干,如果你需要大模型 api 用这个......


没有需求文档。没有流程图。就是脑子里想什么就说什么。


Claude Code + 开源工具的暴力工作流,下次直接躺赢


Claude Code + 开源工具的暴力工作流,下次直接躺赢


然后 Claude Code 自己开始干了。先写了个脚本从 docx 里抽纯文本,然后启动好几个子 agent 并行去搜术语。有的搜人名,有的搜术语,有的搜地名,来源都是权威渠道。


人名最麻烦。同一个人在书里可能有三种写法,全名、缩写、职务称呼。术语表全得兜住。不然翻出来同一个人三个中文名,读者以为是三个人。


那场面多混乱你想想。


最终 185 条术语表,JSON 格式。我快速过了一遍人名列,纠了几个,大部分都没问题。


Claude Code + 开源工具的暴力工作流,下次直接躺赢


Claude Code 自动配好 LinguaGacha,全书拆成 1800 多条翻译条目,开跑。


然后我干了一件蠢事。


50 并发,炸了


我心急。第二条指令写的是:


学术风格的,然后 50 线程速速搞定


50 并发。相当于 50 个翻译员同时开工。进度条嗖嗖往前走,看着特别爽。


跑到第 800 条。炸了。


控制台密集报 429,请求太多了扛不住了。翻译速度从嗖嗖前进变成疯狂报错重试。


我盯着屏幕看了十几秒。心态有一瞬间是崩的。800 条翻完了,还有将近 1000 条呢。


但这个问题我以前遇到过。同一个 API 代理,不同模型限流策略不一样。有些模型 50 并发没事,有些 20 就开始卡。


两个选择。降并发,速度慢两倍多。换模型,速度不变但得确保质量不掉。


我选了换模型。处理方式很粗暴,一条指令:


运行还正常吗?如果不行的话,换成 gemini-2.5-flash 这个模型,断点继续


Claude Code + 开源工具的暴力工作流,下次直接躺赢


LinguaGacha 的断点续翻救了命。它内部有个数据库记录每条的翻译状态,翻过的不会重跑。切模型之后 Claude Code 改了配置文件里的模型 ID,重启,自动从第 800 条接上。


搞定。翻译质量没有肉眼可见的下降。


最终 1821 条完成翻译,1878 条纯英文保留,53 条格式异常跳过。Claude Code 自动格式化、重建章节、生成 Word。宋体加 Times New Roman,标题黑体,A4 纸 1.5 倍行距。连排版都安排了。


Claude Code + 开源工具的暴力工作流,下次直接躺赢


产出:24 万字中文译本。大半天搞定。大部分时间 LinguaGacha 在跑,我开着另一个窗口干别的,偶尔切过来瞄一眼进度条。


这个过程回头看,最让我惊讶的一点是:我全程零规划。没有需求文档,没有流程图。上来就干,遇到问题解决问题。API 炸了?换模型。格式不对?让 AI 调。术语有误?人工纠正。全是在做的过程中一步步调出来的。


以前做一个项目,第一件事就是规划。列需求、选方案、画架构。有一次想做个自动整理论文的工具,先花了一下午画了个超详细的流程图。画完之后特别满意,觉得设计完美。


那个流程图今天还在 Notion 里躺着呢。项目一行代码没写。


规划最大的问题不在费时间。在于它给你一种“已经在做了”的幻觉。流程图画好了,架构想清楚了,你觉得项目完成了一半。其实你一步都没走出去。


这次翻书反过来:先做。做的过程中自然就知道哪些步骤必要、哪些工具好用、哪些坑要避。做完回头看,流程自己就跑出来了。


我想说,如果你对一个领域完全陌生,花点时间了解基本流程还是有必要的。但注意,了解流程是为了心里有数,不是为了输出一份完美的规划文档。前者花半小时,后者花半天。半天之后大概率你也不想做了。


最关键的半小时


翻完了。报告也写完了,文件归档,收工。但那天不知道哪根筋搭错了,跟 Claude Code 多说了一句:


请把这些工作用到的文件整理一下放在一起,工作流程固化为 skill


就这一句。


它自动把所有脚本、配置、术语表、提示词模板整理成了标准目录结构:


Claude Code + 开源工具的暴力工作流,下次直接躺赢


两种模式:短文翻译走 Claude 直译,书籍级别的走 LinguaGacha 流水线。


多花了半小时。


当时的感觉?就是顺手整理了一下。没什么特别的。该吃饭吃饭,该睡觉睡觉。


然后把项目推到了 GitHub 上。Claude Code 有 GitHub Token,直接创建仓库、push 代码,一步到位。


这里有个小细节值得展开说。我给 Claude Code 配了 GitHub Token,就一行命令:


export GITHUB_TOKEN="ghp_xxxxxx"  


看起来不起眼,但这一步打通了一个点,就是 AI 可以发布代码了。有了这个 token,Claude Code 可以自己建仓库、推代码、读别人的开源项目。后面 OpenClaw 机器人能直接调这个 Skill,也是因为 Skill 放在了 GitHub 上,任何 agent 拿到链接就能用。


我后来的经验是,给每个 agent 都配好 token(GitHub、邮箱、API key),是打通 agent 之间连接最快的方式。GitHub 就像 agent 世界的通用语言,你把能力放上去,任何 agent 都能读、能用、能复用。你给 agent 的权限越大,它能自主完成的事情就越多。本质上,你在决定你信任 AI 到什么程度。


这半小时我当时完全没当回事。


直到第二本书来了。


翻完回忆录没几天,手上又来了一本。


Claude Code + 开源工具的暴力工作流,下次直接躺赢


《至高之争》,Parmy Olson 写的,讲 OpenAI 和 DeepMind 怎么从实验室一路杀到全球 AI 竞赛。Sam Altman 和 Demis Hassabis,两个性格完全不同的人怎么各自押注。ChatGPT 发布前夜那些人在想什么、做什么。336 页,9.7 万英文词。


拿到这本的时候我有点兴奋。军事回忆录再精彩,受众是小众中的小众。AI 竞赛?我的读者比我还熟这帮人的名字。翻完就能用。


而且格式不一样了。第一本是 Word,这本是 ePub。


换格式这件事,搁以前够折腾半天的。ePub 的文件结构跟 Word 完全不同,得重新写提取逻辑、重新调格式化脚本。


但我有 Skill 了。


打开 Claude Code,敲了一条指令:


"C:\...\Supremacy_AI,_ChatGPT,...epub" 翻译这本书,学术风格,20并发  


一条。然后我就去干别的了。


回来一看。20 万字中文译本安安静静躺在输出目录里。


Claude Code + 开源工具的暴力工作流,下次直接躺赢


说不上什么感觉。不是兴奋,不是震撼。更像是你设了个闹钟,早上它响了,你按掉。就是该发生的事情发生了。


这种确定感本身反而让我有点恍惚。因为翻第一本的时候完全不是这样的。那时候每一步都在担心下一步会不会出问题。这次我压根就没担心过。


但日志里有一行让我愣了一下。


首先是 ePub。第一本书是 docx,提取脚本处理起来没问题。ePub 完全是另一种东西,本质是一堆 XHTML 文件打包在一起。原来的脚本根本不认识。


Claude Code 没来问我。它自己安装了 ebooklib 和 beautifulsoup4 两个库,给提取脚本新增了 ePub 函数。我一行代码没写。连知道都是事后看日志才知道的。


PS:早期操作记录跑完就会被压成 JSON 存档,流式过程看不到,小编仓促忘记截图。( ̄ε(# ̄) 所以文章里那些日志截图是事后让 Claude Code 从 JSON 里还原出可读版本,再逐条核实过的。


Claude Code + 开源工具的暴力工作流,下次直接躺赢


这就是让我愣住的那一行。轻描淡写。好像它自己遇到问题、自己解决问题是天经地义的事。


说实话这种感觉有点奇怪。像是你带了三年的实习生突然有一天不用你操心了,你高兴之余有那么一点点失落。


两本书翻完之后我干了件更懒的事。


我有一个自己搭的 OpenClaw 机器人,跑在 Telegram 上,平时拿来做做日常助手。我想:Skill 都打包好放 GitHub 了,能不能直接让机器人用?


试了一下。凌晨一点,随手给机器人发了条消息:


就是一个文章链接,加一句“帮我翻译下这个文章,用 south-asia-research-skills 这个 skill”。


机器人秒回:"让我获取完整文章内容,然后按照该 skill 的学术翻译风格为你翻译。"


Claude Code + 开源工具的暴力工作流,下次直接躺赢


然后它就开始干了。


几分钟后,一份完整的中文译本出来了。术语统一(Agent→ 代理、Ghost GDP→ 幽灵 GDP、Moat→ 护城河),学术书面语风格,人名机构名保留原文。46KB 的 docx。


它直接把文件发到了我的邮箱里。主题、附件、格式,全安排好了。


你品品这个变化。


Claude Code + 开源工具的暴力工作流,下次直接躺赢


第一本书:打开 Claude Code,十几条指令,调试半天。我是工程师。


第二本书:打开 Claude Code,一条指令,去喝咖啡。我是甲方。


现在:给机器人发条消息,连 Claude Code 都不用打开。我是甩手掌柜。


从工程师到甲方到甩手掌柜,中间隔的就是那半小时的打包。


两本书放一起看


14 条指令变 1 条。一天变半天。领域从军事换成 AI,格式从 Word 换成 ePub,术语表从 185 条换成 247 条。所有这些变化,Agent 自己搞定了。


这个十几倍的效率差来自哪?


就来自第一本书做完之后那半小时的打包。


Claude Code + 开源工具的暴力工作流,下次直接躺赢


我之前做过很多 AI 工具。热点筛选系统、数据自动爬取。做的时候都挺好用。但做完都是随手扔在某个文件夹里。下次遇到类似需求,我还要翻半天找之前的文件,经常找不到,干脆重新让 AI 写一个差不多的。


同一类问题解决两遍。就很蠢。


一个散落在文件夹里的脚本,过两个月你自己都忘了它在哪。一个打包好的 Skill 放在 GitHub 上,任何人随时能用,你自己也随时能调。


短期看不出差距。但积累半年之后就很明显了。一个人手上有 20 个打包好的 Skill,另一个人有 20 个散落各处的脚本。前者做任何事情都快,因为手边全是现成的弹药。后者每次都像赤手空拳上战场。而且前者越做越快,后者永远在原地打转。


但说到底,我能做到这件事,靠的根本不是技术能力。


是翻译的底子,有了翻译的底子,拿到一本新书,扫一眼目录和前三章就知道术语密度大概在什么量级。比如看到一个印度人名,我条件反射会去查新华社有没有标准译法。比如一段译文读起来“挺通顺”,但主语在两句话之间偷偷换了,我能感觉到哪里不对。


这些东西你让我讲出来我都讲不清楚。但是它们真实地影响了我给 AI 下的每一条指令。这些你在自己领域积累的那些说不清道不明的直觉、判断、品味,就是 AI 最需要的输入。


最后


那天翻完第二本书,我又找了那个朋友。


我说你知道第一本书和第二本书之间差了什么吗。


他说差了什么。


我说差了半小时。


他说什么半小时。


我说第一本书翻完之后我多花了半小时,把整个流程打包成了一个 Skill。第二本书就是靠这个 Skill,一条指令出成品的。


他想了想说:“所以你这半小时,等于把自己复制了一份。”


我当时愣了一下。他这句话比我自己总结的到位。


找工具和直接做,很多人能做到。差距就在做完之后的那一下。花半小时把流程打包。短期看不出什么。但第二本书证明了:第一次花 14 条指令从零探出来的路,第二次一条指令就走完了。第三本、第四本,可能连那一条指令都能省了。


每次用 AI 做完一件事,我现在都会问自己:这件事下次还会做吗?


如果答案是“会”,我就花半小时把它打包。


大多数人用 AI 的方式是做完一件事关掉对话框,下次从头来。每次都是一次性的。


半年之后你手上有 20 个 Skill,别人还在从零搭流程的时候,你一条指令已经出成品了。


你是站在自己肩膀上干活。这感觉,谁试谁知道。


项目代码全在 GitHub 上,Skill 定义、脚本、术语表模板、使用说明,全在里面:


https://github.com/147228/south-asia-research-skills


感兴趣的自己 clone。有翻译需求的一句话就能启动,没翻译需求的也可以参考打包 Skill 的方式做你自己领域的。


找一件你重复做了很多遍的事情。打开 Claude Code,把需求说清楚,直接开始。做完了跟 AI 说一句“把工作流程固化为 skill”。


就这么简单。


文章来自于“夕小瑶科技说”,作者 “丸美小沐”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI工作流

【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!

项目地址:https://github.com/coze-dev/coze-studio


【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/付费

2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

3
知识库

【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。

项目地址:https://github.com/labring/FastGPT

4
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0