Skills.sh (https://skills.sh/) 上已经有将近9万个skills了,但是,值得使用的skills凤毛麟角!今天给大家推荐prompt大神李继刚的13个skills,绝对值得你拥有!
要看懂 ljg-skills,最好先看懂作者。
李继刚不是那种“靠一篇爆文突然冒出来”的 Prompt 博主,而是比较早一批把 Prompt 当成结构化写作对象来打磨的人。公开资料里,有几个点很能说明他的辨识度:
Read → Think → Write → Publish。GitHub 主页如果把这几条线连起来看,会发现李继刚真正有代表性的,不只是“会写 Prompt”,而是他一直在做同一件事:
把复杂的思考结构,压成少数几个能扛重量的模块,再让这些模块去驱动输出。
这点在 prompts 仓库里很明显,在 ljg-skills 里则更进一步。前者像结构化 Prompt 样板,后者更像 Prompt 长成了 workflow 资产。
下面这张图,就是这次按 ljg-card 的思路真实生成的作者卡片:

按这次查看 GitHub 页面时的可见信息,这个仓库是公开仓库,首页能看到大约 106 stars、23 commits,最近一次提交时间是 2026 年 3 月 23 日。也就是说,它不是一个过期样本,而是还在更新的活仓库。
直接说结论:
这个仓库 skills/ 目录里一共是 13 项能力,比 README 首页第一眼看上去还要更完整一点。真正有价值的,不是逐个核对目录名,而是看它们怎么分工。
按用途看,这 13 项能力大概可以归成四组:
这组是仓库的核心。
ljg-plainljg-wordljg-learnljg-rankljg-writesljg-invest它们有一个共同特点:不是在解决“有没有功能”,而是在解决“如何把一个东西想明白、说清楚、压缩成自己的语言”。
ljg-paperljg-paper-flow这组明显面向“输入复杂材料,再转成可消化认知”的场景。
ljg-cardljg-word-flow这组是在回答一个很现实的问题:内容想明白了以后,怎么做成能传播、能交付、能发出去的东西。
ljg-skill-mapljg-x-downloadljg-travel这组更偏外部触达、扫描、工作流编排。
换句话说,这套仓库不是随便摆了 13 个按钮,而是有一条很清晰的主线:
理解 -> 写出 -> 压缩 -> 传播。
这条主线,就是这个仓库的骨架。
下面不只是翻译功能说明,而是从“它解决什么问题、写法有什么特点、适合什么人、哪里最值得学”的角度,一个个看。
ljg-plain:这套仓库里最容易“立刻见水平”的 skill如果只能先看一个 skill,最推荐从 ljg-plain 开始。
原因很简单:它最能代表这套仓库的精神。
ljg-plain 的目标不是“简化表达”这么空的话,而是非常明确地提出了一条标准:
把任何内容改写到聪明的 12 岁孩子也能懂。
这句话看起来很常见,但这个 skill 真正有意思的地方在于,它不是只说“请你更通俗一点”,而是连一整套负面清单都写了出来,比如:
这种写法很重要。
因为很多 skill 最大的问题,就是停留在“愿景句”。
比如会写:
这些都没错,但太空了。模型执行的时候,很容易只做到“看起来像在努力”,最后写出来还是一股 AI 腔。
而 ljg-plain 的好处在于,它把“不要什么”写得非常具体。
这就像教人打球。
“动作自然一点”是没法练的。
但“肩别耸、肘别飞、出手别拖”是能练的。
所以这个 skill 值得看的,不只是它能不能白话化,而是它展示了一种 skill 设计方法:
别只写目标,要写红线。
这次实测里,也专门拿它做了 demo,把整个 ljg-skills 仓库本身,用“12 岁孩子也能懂”的方式重讲了一遍。效果很直观:一旦按它的标准来,整段话会立刻从“产品介绍”变成“活人在说话”。
比如 demo 里有一句就很典型:
ljg-skills 不是更多提示词,而是给 AI 装了几种固定工种。
以前 AI 只是一个会说话的人,现在它开始像一个小团队:有人负责解释,有人负责写,有人负责读论文,有人负责出图。
输入输出一眼看懂:
~/Documents/notes/*.org
Demo 示例:

输入示例:
ljg-skills 是一个包含多个自定义 Claude Skills 的仓库,这些 Skills 覆盖内容重写、论文分析、旅行研究、视觉卡片生成等多个领域,可以帮助用户以更结构化的方式完成知识处理与内容生产。
输出示例:
这个仓库可以理解成一排现成的脑回路。你不用每次都跟 AI 重复说:先帮我读,再帮我改写,再帮我做成图。这里已经有人把这些动作提前写好了。你只要叫对 skill,它就按那套路子开工。
ljg-word:不是查词典,而是拆“词的骨头”ljg-word 乍一看会让人误会成“英语学习工具”。
但看完 SKILL.md 会发现,它做的根本不是传统背单词那套。
它关心的是三个层次:
比如 demo 里试了 grok 这个词。
普通词典会告诉你:理解,彻底懂。
但 ljg-word 的风格不是停在翻译,而是继续往下压:
不是看懂,而是“这个东西已经在脑子里开始自己思考”。
这就把词从一个“标签”,变成了一个“动作”。
这也是这套仓库很有意思的一个共同点:
它不太喜欢停在定义层,更喜欢停在意象层。
定义是给考试用的。
意象才是会留在脑子里的。
所以,ljg-word 未必适合所有英语学习场景,但它特别适合两类人:
如果说 ljg-plain 展示的是“怎么把复杂东西说简单”,那 ljg-word 展示的是“怎么把抽象词义说出画面感”。
这次我也按这个 skill 的思路做了一张 demo 卡,直接把 grok 这类词该怎么讲,压成了一张可传播的图:
输入输出一眼看懂:
grok、serendipity、entropy
Demo 示例:
输入示例:
grok
输出示例:
原始画面:不是站在外面看一个东西,而是钻进它里面,从骨架到脾气一起摸清。核心意象:进入 + 共振 + 内化 = 真懂。一句话:你不是盯着一个东西看久了就懂了,你是真的把它活进脑子里了。
ljg-learn:八刀解剖概念,像给抽象词做切片ljg-learn 的气质很强。
它不是常规意义上的“概念解释”,而是把一个概念从 8 个维度切开:
然后最后再压成一句顿悟。
这种设计,一看就不是在追求“效率最高的解释”,而是在追求“解释这件事本身也要有审美”。
这当然会带来两个结果。
一方面,它非常适合那些值得慢慢想的概念,比如:
这类词,单靠百科式定义很难真正进脑子。
另一方面,它也天然不适合所有概念。
如果只是想快速知道一个 API 参数是什么意思,用 ljg-learn 就太重了。
所以,这个 skill 最适合“概念解剖”,不适合“术语速查”。
这次 demo 里,拿“Skill”本身做了一次八刀拆解。结果很有意思:一旦从“插件”那个隐喻切换到“手艺卡片”这个隐喻,很多关于 skill 的误解会立刻消失。
这就说明 ljg-learn 最值钱的地方,其实不是八刀本身,而是它强迫模型去换隐喻。
很多理解卡住,不是因为知识不够,而是因为隐喻不对。
输入输出一眼看懂:
Skill、熵、系统~/Documents/notes/*.org
Demo 示例:

输入示例:
/ljg-learn Skill
输出示例:
公式:Skill = 可复用的方法 + 可触发的上下文 + 可交付的标准一句话:Skill 不是让 AI 更像神,而是让工作流终于像工作流。结构图:skill+-- 触发条件+-- 动作顺序+-- 外部资源+-- 交付标准
ljg-rank:不是总结,而是降秩ljg-rank 是这套仓库里最“有方法论野心”的一个。
它不满足于总结一堆关键点,而是要继续追问:
这个领域背后真正独立的生成器有几个?
注意,这跟常见的“3 个核心原则”“5 个关键要素”不是一回事。
总结型内容的问题在于,它常常只是把现象分门别类。
而 ljg-rank 要求的是:
这其实已经非常接近建模思维了。
不是在问“这个领域看起来像什么”,而是在问“这个领域到底由哪几根线牵着走”。
这类 skill 的风险也很明显:
写不好,就会非常装。
一旦只是换几个抽象词,最后既不生成,也不最小,也不预测,那就变成一种“高阶空话制造器”。
但从指令本身看,ljg-rank 至少在努力避开这个坑。它明确提出四个判据,这一点很加分。
这次 demo 里拿“AI skills 生态”做了降秩,最后压出三根生成器:
这个结论不一定唯一,但很能说明这个 skill 的用法:
它不是帮人做总结,而是帮人“砍掉表面热闹,留下骨架”。
输入输出一眼看懂:
AI skills 生态~/Documents/notes/*.org
Demo 示例:
输入示例:
AI skills 生态
输出示例:
这个领域真正独立的生成器只有三根:1. 经验封装2. 环境接线3. 交付标准没有经验封装,只剩散乱提示词;没有环境接线,只剩纸面方法论;没有交付标准,只剩看似努力的过程。
ljg-writes:写作不是输出,是思考过程本身ljg-writes 可能是整套仓库里“人格感”最强的一个 skill。
因为它不是教模型“如何像写作者那样输出”,而是直接规定了一种写作姿态:
一个人在想事情,碰巧被你看见。
这个定位非常狠。
它直接把大量常见 AI 写作习惯排除掉了:
而且,它还规定了一整套节奏感标准,比如:
这套东西拿来做“普通写稿”未必人人都适合。
但它有一个特别大的价值:
它证明了一件事:skill 不一定非得围绕功能,也可以围绕声音。
很多人做 skill 时,天然只会写流程:
但 ljg-writes 在告诉人另一件事:
风格本身,也可以是工作流。
或者说,写作里的“气口”,也是可以封装的。
这次 demo 用它写了一个题目:为什么 Skill 不是提示词模板。
成品最大的特点,不是结构多完整,而是读起来真的有一种“不是在讲课,而是在当场想明白”的感觉。
这很难,也很有辨识度。
比如用 ljg-writes 的口吻去写“Skill 不是提示词模板”,出来的味道就不是功能说明,而是这种:
提示词模板是在帮一轮对话。skill 是在帮一个人整理自己的手艺。
前者更像写在手心里的提词器,后者更像一个已经排练过很多次的小剧组。
输入输出一眼看懂:
~/Documents/notes/*.org
Demo 示例:
输入示例:
Skill 不是提示词模板
输出示例:
提示词模板解决的是“这一轮怎么说”。skill 解决的是“这一类事情以后怎么做”。前者更像临场发挥时写在手心里的提词器,后者更像一个已经排练过很多次的小剧组。
ljg-invest:把项目看成“秩序创造机器”ljg-invest 是这次最意外的一个 skill。
因为它没有出现在 README 的核心列表里,但仓库里确实有。
而且它不是传统投资分析框架。
它最核心的一句话是:
不问这个公司值多少钱,问这台机器转不转得起来。
这种写法,很明显已经不是标准商业分析口径,而是一套作者自己的判断语言。
这种 skill 有两面性。
优点是,非常有辨识度。
缺点也很明显:如果用户不是吃这一套语感的人,可能会觉得“好像挺厉害,但有点玄”。
不过,站在研究 skill 设计的角度,这个 skill 反而很值得看。
因为它说明了另一个问题:
skill 不一定非得中性。
很多人做 skill,总害怕“太主观”,于是把东西写得越来越平,最后虽然通用,但完全没有锋芒。
ljg-invest 走的是反方向。
它直接把自己的判断框架写成一个世界观,然后让模型沿着这套世界观出报告。
这次 demo 拿 ljg-skills 仓库本身做了一个“投资分析”式拆解。结论很有意思:它不是稳定的秩序创造机器,但它已经有明显的“方法论品牌资产”雏形。
即便不打算做投资分析,这个 skill 也值得看一遍。因为它能让人意识到:
真正高级的 skill,往往不是最中立的 skill,而是最有判断框架的 skill。
输入输出一眼看懂:

Demo 示例:
输入示例:
项目:ljg-skills
输出示例:
判断:有潜力,但还不是稳定的秩序创造机器。原因:方法论密度很高,作者辨识度强,但飞轮更多依赖个人,安装链路还不够顺。最后一句:它的本质不是工具仓库,而是一种个人知识工作姿势的商品化雏形。
ljg-paper:把论文从“术语森林”里救出来如果说前面那几个 skill 更像内容原子,那 ljg-paper 就是这套仓库里非常成熟的一条主干。
它的定位说得很清楚:
不是做学术,不是做综述,不是为了批判而批判。
而是把论文里的思想,提取成普通人也能拿走的认知。
这个 skill 有几个很值得学习的点。
第一,它对语言质量的要求非常具体。
比如:
第二,它不是只要求“解释方法”,还强制要求:
也就是说,它不是只在做摘要,而是在做一套“从外部论文吸收可迁移认知”的 pipeline。
这很高级。
因为很多人读论文,最大的痛苦不是看不懂公式,而是看完以后不知道自己到底拿走了什么。
ljg-paper 其实是在替人解决这个问题。
这次 demo 选的是 ReAct 论文。按照这个 skill 的口吻,一下就能把那篇经典论文的核心压到一句人话里:
别让模型只在脑子里打转,得让它出去摸一摸世界。
这就是 ljg-paper 的价值。
不是更学术,而是更可带走。
为了让这一点更直观,这次也把这段解读铸成了一张卡片:
输入输出一眼看懂:
~/Documents/notes/*.org
Demo 示例:

输入示例:
ReAct: Synergizing Reasoning and Acting in Language Models
输出示例:
它真正想解决的问题很朴素:模型会想,也会做,但以前大家总把这两件事分开研究。一句话总结:别让模型只在脑子里打转,得让它出去摸一摸世界。
ljg-paper-flow:把“读完”直接接到“发出去”这个 workflow 很有意思。
它不是单独一个新能力,而是把 ljg-paper 和 ljg-card 串起来:
先读论文,
再做卡片。
这件事的意义,不在于“省一步操作”。
而在于它说明了这套仓库的真正野心:
不是只帮人想明白,而是帮人把想明白这件事直接推到传播层。
这点很关键。
很多 skill 仓库做着做着,会停在“内容内部消费”。
比如:
就结束了。
但 paper-flow 的思路是:既然已经花力气把论文消化掉了,为什么不顺手把它变成可传播资产?
这其实已经很接近内容生产者的真实流程了。
只不过,workflow 这种东西天生更依赖环境。
它不是单个 skill 好不好,而是链路里每个节点都得通。
paper-flow 也正因此更能暴露安装质量:只要 ljg-paper 或 ljg-card 任意一个环节不通,整个 workflow 就会断。
输入输出一眼看懂:
ljg-paper 解读 org 文档,加一张 ljg-card 生成的 PNG 卡片
Demo 示例:
输入示例:
/ljg-paper-flow https://arxiv.org/abs/2210.03629
输出示例:
📄 ReAct📝 论文解读核心句:别让模型只在脑子里打转,得让它出去摸一摸世界。🖼️ 下游卡片:https://blog-img-1258751817.cos.ap-singapore.myqcloud.com/wechat/ljg-skills/2026-03-23/2026-03-23-ljg-paper-card.png
这条 workflow 的价值很直白:它把“读完论文”直接往“做成可转发资产”上推了一步。
ljg-card:这套仓库里最像“作品”的一个 skillljg-card 很可能是整个仓库里最容易被转发、也最容易被误解的 skill。
容易被转发,是因为它的交付结果最直观:PNG。
容易被误解,是因为很多人会把它理解成“卡片模板生成器”。
但真正去读它的 SKILL.md 和 references/,会发现作者其实很在意另一件事:
不要有 AI 生成痕迹。
这个 skill 在视觉品味上写得非常细:
说实话,这种东西不一定人人都认同。
但它至少说明一件事:作者是把视觉输出当作品,不是当截图。
这就比大量“只要能渲染出来就算成功”的 skill 高一个层级。
这次实测里,ljg-card 其实是最关键的一关。
因为本机核查时发现:
ljg-card 确实装进了 ~/.claude/skills/playwright 依赖目录也在node 不在 PATH这意味着,如果完全按文档里的默认命令去敲,大概率会失败。
但继续追下去会发现,node 其实不是没装,而是藏在 /opt/homebrew/bin/node。
一旦改成绝对路径,capture.js 就真的能跑通。
这次不只是“证明能跑”,而是真的按 ljg-card 逻辑生成了多张图,其中这张“实测结论卡”就是最直接的例子:
输入输出一眼看懂:
~/Downloads/
这个结果非常有代表性:
ljg-card 不是坏的,而是默认环境假设太乐观。
这也是很多 skill 仓库常见的问题。作者机器上能跑,不等于别人机器上直接照着就能跑。
Demo 示例:
输入示例:
这不是一套“大而全”的技能市场仓库,而是一套作者风格非常强的知识工作流资产。本机只发现 ljg-card 已安装,但修正 node 路径后可成功出图。
输出示例:
HTML: 2026-03-23-ljg-skills-long-card-demo.htmlPNG: https://blog-img-1258751817.cos.ap-singapore.myqcloud.com/wechat/ljg-skills/2026-03-23/2026-03-23-ljg-skills-long-card-demo.png
ljg-word-flow:一个很合理的内容链式 workflow这个 workflow 的想法非常顺:
先用 ljg-word 把一个词拆透,
再用 ljg-card -i 把它铸成信息图。
这就把原本很个人化、很内在的“词义理解”,转成了一种可以对外展示的内容形态。
它适合什么人?
特别适合那些本来就在做:
的人。
但和 paper-flow 一样,它对运行链依赖更高。
它的价值在于 workflow 设计本身很顺,而不是当前机器上天然就能一键跑通。
输入输出一眼看懂:
ljg-word 解析,再得到一张 ljg-card -i 生成的信息图 PNG
Demo 示例:
输入示例:
/ljg-word-flow grok
输出示例:
📖 grok📝 拆解结果:不是看懂,是把一个东西活进脑子里🖼️ 下游卡片:https://blog-img-1258751817.cos.ap-singapore.myqcloud.com/wechat/ljg-skills/2026-03-23/2026-03-23-ljg-word-card.png
它最适合拿来做“语言理解 -> 视觉传播”这一跳。
ljg-skill-map:一个很实用的“现实检验器”ljg-skill-map 表面看像一个辅助小工具,实际上很有代表性。
因为它解决的是 skill 生态里一个特别实际的问题:
到底装了什么?
很多人现在本地 skills 越装越多,几十个、上百个,最后最难回答的不是“有没有”,而是:
ljg-skill-map 做的,就是把这件事一眼画出来。
这次实测里,它也直接帮忙把最重要的结论照出来了:
当前主机上,仓库里同名可见的 ljg-* skill,实际上只有 ljg-card 一个。
别小看这个结论。
这意味着,如果只是凭感觉说“本机已经安装过了”,那十有八九会误判。
所以这个 skill 很适合作为装库之后的第一步自检工具。
输入输出一眼看懂:

Demo 示例:
输入示例:
/ljg-skill-map
输出示例:
仓库 13 项能力中,当前主机原生可见的 ljg-* 只有 ljg-card。
ljg-x-download:很实用,但也最容易受环境制约ljg-x-download 做的事很直接:从 X/Twitter 链接下载图片或视频到 ~/Downloads。
它依赖 yt-dlp。
这类 skill 的特点是,一旦环境齐,就非常实用;一旦环境没齐,就会特别像“明明写了但为什么就是不工作”。
这次检查里也出现了类似情况:
yt-dlp 在默认 PATH 里找不到/opt/homebrew/bin/yt-dlp 实际存在这再次说明,这个仓库在“方法论层”很强,但在“跨机器环境稳健性”上还可以继续补。
如果后续真的要把这套仓库推荐给更多普通用户,x-download 这种依赖外部命令的 skill,最好都得补一层更稳的安装检测和 fallback。
输入输出一眼看懂:
~/Downloads/ 的图片或视频文件,并回报文件名、大小和路径
Demo 示例:
输入示例:
https://x.com/.../status/...
输出示例:
若推文里有媒体,目标结果应该是把图片或视频下载到 ~/Downloads/,并在对话里回报文件名、大小和保存路径。
环境核查示例:
默认 PATH 下找不到 yt-dlp绝对路径 /opt/homebrew/bin/yt-dlp 存在
也就是说,这个 skill 不是完全没条件运行,而是和 ljg-card 一样,默认环境假设偏乐观。
ljg-travel:最有野心,也最重的一条 workflowljg-travel 是很有想法的一条 workflow。
它不是普通旅游攻略,而是把“出发前做案头研究”这件事,做成了一条完整工作流:
而且它特别强调:
说实话,这条 workflow 如果真能稳定跑通,价值很大。
因为它解决的不是“去哪儿玩”,而是“去之前怎么把这座城市真正读进脑子里”。
但它的重量也摆在那儿:
它依赖的不是单点 skill,而是一整套外部研究链。
所以从实操角度看,它更像一个“样板间级 workflow”。
非常有启发,但也最不适合一上来就拿它验证安装环境。
输入输出一眼看懂:
西安 -f 唐代
Demo 示例:
输入示例:
/ljg-travel 西安
输出示例:
* 城市概览西安不是“景点多”,而是中国文明分层最清楚的城市之一。* 博物馆指南陕西历史博物馆:看唐代系统秦始皇帝陵博物院:看帝国如何把秩序做成规模* 古建遗存大雁塔:看佛教传播后的本地化结构* 参观路线第一天:陕历博 -> 大雁塔第二天:兵马俑 -> 秦始皇陵
如果后面真把整套依赖补齐,这会是仓库里最有机会出“爆款知识服务感”的 workflow 之一。
把这些 skill 全部看完之后,会发现一个特别清楚的事实:
这个仓库不是“13 个孤岛功能”。
它其实是三条主线互相咬合。
这条线包括:
ljg-plainljg-wordljg-learnljg-rankljg-paper共同目标是:把理解这件事,从“知道定义”推进到“脑子里有画面、有结构、有自己的话”。
这条线包括:
ljg-writesljg-invest共同目标是:让输出不是信息拼盘,而是带着清楚判断和声音。
这条线包括:
ljg-cardljg-paper-flowljg-word-flow共同目标是:别把认知停在脑内,顺手做成交付物。
这三条线合在一起,就构成了这个仓库最有价值的地方:
它不是在帮 AI 多做几件事,而是在帮一个人把“理解 -> 判断 -> 表达 -> 传播”整条链路固定下来。
这也是为什么它会让人觉得“有作者感”。
因为它本质上就是某种个人方法论的外化。
但如果从真正“怎么用”的角度看,更适合按输入输出关系来理解它(本文最重要的一张图!!!):

这张图想说的其实就一句话:
先看输入是什么,再看先过哪个 skill、会产出什么、下一步还能接谁。
如果读了以上的内容,你判断需要这套skills,只需要将“https://github.com/lijigang/ljg-skills/tree/master“ 这个Github的repository喂给OpenClaw,然后让它进行安装即可,请在安装结束之后,让它对每个skill都进行测试并生成相应的交付物以确保skill真的跑通了。
这里不再赘述。
讲到这里,其实已经能给出一个比较清楚的判断了。
这套仓库最适合三类人:
不太适合的人也很明确:
如果现在就想开始上手,更推荐的顺序也很简单:
先看懂这三个:
ljg-plainljg-paperljg-card因为它们刚好对应“讲明白”“读进去”“做出来”。
再往后,按这条线去理解就很顺:
ljg-plainljg-wordljg-paperljg-cardljg-word-flowljg-paper-flowljg-travel这个顺序的关键,不是先装哪个,而是先看懂每个原子动作到底在干什么,再看 workflow 为什么顺。
最后的推荐结论也可以压成一句话:
这不是一套适合盲装的 skill 仓库,但它非常值得认真拆。
它最值钱的地方,不是“功能多”,而是很真实地展示了:
所以更好的打开方式,不是问“有没有一键神技”,而是去看:
一个人到底怎么把自己的方法,拆成可以反复调用的 skill。
文章来自于微信公众号 "Draco正在VibeCoding",作者 "Draco正在VibeCoding"
【开源免费】ai-comic-factory是一个利用AI生成漫画的创作工具。该项目通过大语言模型和扩散模型的组合使用,可以让没有任何绘画基础的用户完成属于自己的漫画创作。
项目地址:https://github.com/jbilcke-hf/ai-comic-factory?tab=readme-ov-file
在线使用:https://aicomicfactory.app/
【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!
项目地址:https://github.com/coze-dev/coze-studio
【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。
项目地址:https://github.com/n8n-io/n8n
在线使用:https://n8n.io/(付费)
【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。
项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file
【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。
项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file
在线使用:https://vectorvein.ai/(付费)
【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。
项目地址:https://github.com/labring/FastGPT
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0