省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%
7638点击    2026-04-08 09:51

信息无损Token最高节省87%,一款省Token神器正在GitHub蹿红。


短短3天,纯靠口口相传,GitHub总揽星4.1K,增长曲线更是堪比“旱地拔葱”:


省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%


连开发这个项目的19岁外国小哥也懵了,直呼属实没想到。


本来是自己随手花10分钟写的一个“joke”,结果却意外受到大家的追捧。


省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%


他之所以将其称为“joke”,也实在是因为这个名为caveman(山顶洞人)的项目,背后原理过于简单:啰嗦并不总是更好,有时字数少=更正确


没错,这个给Claude Code/Codex用的插件,核心目标就是让Agent“像山顶洞人一样说话”(俗称言简意赅)


比如明明给的解决方案一样,普通Claude需要用一大段话来描述:


(翻译)你的React组件之所以会重新渲染,很可能是因为你在每次渲染周期中都创建了一个新的对象引用。当你将一个内联对象作为prop传递时,React的浅层比较会认为它每次都是一个不同的对象,从而触发重新渲染。我建议你使用 useMemo 来缓存该对象。


而caveman则相当简洁:


(翻译)每次渲染都会创建新的对象引用。内联对象作为prop传递=新的引用=触发重新渲染。用useMemo包裹起来即可。


初步测试显示,它在保持完全技术准确性的同时,将输出Token减少约75%。


此外还有一个配套工具,可以压缩用户的记忆文件,从而将每次会话的输入Token减少约45%。


目前这个插件在支持skills的环境中,已经可以一行安装


npx skills add JuliusBrussee/caveman


“有时少数Token就够了”


老实说,让Agent学会言简意赅从而节省Token的想法,也不是第一天出现了。


开发caveman的小哥就提到,今年3月的一篇论文已经发现:


通过简洁性约束(强制简短回答),大模型的准确率提升了26个百分点,而且在数学推理和科学知识基准上,完全逆转了性能层级(原本大模型不如小模型,结果后来反超了)


省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%


所以小哥就说了,caveman的诞生就源于这样一个人所共知的观察——


“山顶洞人式表达”(caveman-speak)能大幅减少大语言模型的Token使用量,同时不损失技术实质内容。


来看一组Before/After你就明白了:


省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%


表达同样一个修复任务,正常Claude需要用到69个Tokens,而caveman只需要19个。


Token一下子就节省了约75%,且不影响Agent理解任务需求以及给出解决方案。


据小哥介绍,caveman会完全保留以下内容:


代码块、行内代码、URL、文件路径、命令、标题、表格结构、日期、版本号等。任何技术性内容都保持原样通过,只有自然语言文本会被压缩。


换言之,只有一些不必要的废话会被丢掉。(p.s:之前Claude Code一句“你好”就干掉13%的额度)


省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%


当然,你还能自己控制Agent的简洁程度,从啰嗦到极简(Lite→Full→Ultra)任你选。


  • Lite:删掉客套话和废话,保留基本语法结构;
  • Full:caveman标准版,会省略“一个”、“这个”之类的冠词,句子只说关键词片段,偶尔会配上一些简短的语气词,说话风格有点像山顶洞人;
  • Ultra:极致压缩模式,能省则省。


省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%


至于究竟能节省多少Token,小哥也在真实的Claude API上测试了一下(可复现)——


10个任务,最终节省的Token范围为22%–87%,平均下来高达65%


具体任务包括但不限于:解释React重渲染bug、修复认证中间件Token过期问题、设置PostgreSQL连接池、解释git rebase与merge的区别、重构回调为async/await……


省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%


不过小哥也提醒,caveman仅影响输出Token,思考/推理Token不受影响


caveman不会让大脑变小,会让嘴巴变小。最大的胜利是可读性和速度,成本节约是额外的好处。


具体安装方式如下:


如果你用的是Cursor/Copilot/Windsurf/Claude Code这类AI编程工具,在支持skills的环境中,可以一行安装:


npx skills add JuliusBrussee/caveman


如果你想明确装到某个Agent,可以像这样:


npx skills add JuliusBrussee/caveman -a cursor

npx skills add JuliusBrussee/caveman -a copilot

npx skills add JuliusBrussee/caveman -a cline

npx skills add JuliusBrussee/caveman -a windsurf


Claude Code用户还能这样装:


claude plugin marketplace add JuliusBrussee/caveman

claude plugin install caveman@caveman


Codex相对麻烦一点,需要先clone仓库,在项目里打开Codex,然后通过/plugins搜索Caveman并手动安装。


装完后,选择caveman模式或直接说“像caveman那样说话”“请少用一些Token”,就能召唤山顶洞人。


停止的话,也是切到正常模式或直接说“stop caveman”即可。


背后是一位年仅19岁的开发者


有意思的是,caveman的作者也相当年轻——


Julius Brussee,目前19岁,正在荷兰莱顿大学读大一,专业为数据科学与人工智能。


省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%


虽然刚上大学,但他已经是个比赛和创业经验都很丰富的“老手”了(bushi。


2025年1月,他创办了Revu Labs,主要开发Revu这款原生macOS学习应用


简单来说,Revu能自动把你上传的PDF变成学习材料,然后用和多邻国差不多的智能算法安排复习。它背后有多个Agent协同干活,同时保证数据零损坏、全本地化。


然后他又参加了埃因霍芬理工大学的创新大赛,比赛过程中构建了一个企业级知识管理平台Stacklink


这一次更复杂,Stacklink需要将公司分散在各处的信息(如Google Docs、Slack、Notion)全部接进来,然后统一建索引,尤其是还要考虑AI幻觉问题。


再到最近,他又联合创办了Pitchr这家公司,担任产品与技术负责人。


一看Pitchr的产品,估计大家都会会心一笑,因为它是专门开发AI演讲辅助平台的(帮你更好展示PPT)


省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%


以及履历中暂无,但Julius自己补充的一点:


之前还创办了Locked In(集成NFC的iOS生产力应用,首周留存率100%)和Neurabridge(曾获经济学人报道的AI咨询公司)


不过,虽然开发了这一连串项目,但caveman的意外走红也让Julius无限感慨:


好好好,随手写的“joke”火了,而我花了几个月时间用心打磨的Revu、Stacklink……却没有这种待遇。


大家都很喜欢caveman这个功能。人们纷纷安装,我笑得前仰后合。


但这里有个没人谈论的事情——我花了几个月时间认真做的项目,在同周也获得了认可,但关注程度却没那么高。我并非抱怨,只是在观察。


传播的关键在于共鸣,那个梗打开了门。真正的工作在背后。


caveman争议也不少


当然了,caveman的走红也不止是因为“让AI像原始人说话”这个梗,背后也不乏一些争议。


讨论较多的有两点:


  • 大部分节省的都是输出Token,而真正的成本是上下文输入Token。
  • 强迫大模型更简洁是否会让它变笨。


省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%


对此,作者也现身Hacker News评论区疯狂叠甲:


这项技能并不是为了减少隐藏的推理/思考Token。Anthropic自己的文档建议更多的思考预算可以提高性能,所以我不会提出相反的观点。


它所针对的是可见的完成:更少的开场白,更少的填充内容,更少的精致但非必要的文本。因此,由于完成后的输出被“原始化”了,代码完全没有受到这项技能的影响。


公平的批评是,我“~75%”的READM数据来自初步测试,而非严格的基准测试。这应该更谨慎地表述,我现在正在做一个正式的评估。


省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%


翻译过来就是,降本只是附带的、减少的是不必要的Token所以一般不会变笨。


在作者看来,caveman只是一个有趣的想法,比一些人以为的使用范围要窄,接下来还需要更精确的基准测试。


而这,也和部分网友得出的结论差不多:


因为有趣和真正聪明地减少了输出Token而获得A+。


但它不是降低总成本的灵丹妙药,可能会让Claude的智商下降几个点。


省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%


所以,有试过的朋友分享下感受如何吗(观望.jpg)


GitHub:

https://github.com/JuliusBrussee/caveman


参考链接:

[1]https://news.ycombinator.com/item?id=47647455

[2]https://www.reddit.com/r/ClaudeAI/comments/1sble09/taught_claude_to_talk_like_a_caveman_to_use_75/


文章来自于"量子位",作者 "一水"。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
cursor

【免费】cursor-auto-free是一个能够让你无限免费使用cursor的项目。该项目通过cloudflare进行托管实现,请参考教程进行配置。

视频教程:https://www.bilibili.com/video/BV1WTKge6E7u/

项目地址:https://github.com/chengazhen/cursor-auto-free?tab=readme-ov-file


2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md