看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了
6396点击    2026-05-12 08:53

AI 的熟手玩家,都应该知道system prompt这个词:每一个你用过的 AI 助手,背后都有一份你看不见的文件,却对模型有着决定性的作用。


明明也是用自然语言写成,但 system prompt 不同于具体的任务指令,它是每一个模型真正的「立身之本」,告诉模型,你是谁,你该怎么说话,你能做什么,不能做什么。如果说模型的参数决定了它「会什么」,system prompt 决定的就是它「是谁」。


去年几个主流大模型的 system prompts 被起底过一次,今年以来,这么多新模型更新了,它们的「性格底色」如何?在最新的泄漏库里,Claude Opus 4.7、GPT 5.5 和 Gemini 3 Pro 的 system prompt 等 system prompts 都流出来了。


看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了


不同于官方半遮半掩披露出来的 system prompt,这些泄漏版内容更加庞大而丰富。仔细看了之后我们发现——太精彩了,不仅是模型能力、性格,连大厂跃跃欲试的商业模式路线,都可以在这里面一探究竟。


篇幅说明一切


先看篇幅:Claude Opus 4.7 的 system prompt 超过 20 万 tokens,Gemini 3 Pro 大约 1.4 万 tokens。GPT 由于被拆分成了许多个「子人格」,长短不一,长的 GPT 5.5 也有十万字,短的用于 api——只有 1 行。


看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了


20 万 tokens 基本约等于一部中篇小说,不愧是有哲学专家在背后的模型。Anthropic 把 Claude 的行为规范写成了一部宪法,用 XML 标签层层嵌套,分门别类地规定了语气、格式、拒绝策略、记忆系统、工具使用、政治立场处理方式。每一类下面都有正面案例和反面案例,事无巨细,密不透风。


OpenAI 则是分散作战,它根据不同的人格设计了不同的 system prompt。


看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了


比如 GPT 5.5 API 版的 system prompt 几乎只说了一句话,但 GPT 5.5 Thinking 版就不一样了,大约 10 万 tokens,是真正承载行为控制的完整 prompt。同一个模型,两套人格说明书,面向消费者版是成品,OpenAI 替你画好了。


Gemini 3 Pro 居中,1.4 万 tokens,传统的平铺式结构,用编号和表格组织,更像一份操作说明书。


三种篇幅其实也体现了三种控制哲学,Anthropic 相信规则越细越好,Google 觉得够用就行,OpenAI 则认为要分场景。


同一个问题,相反的答案


模型间的差异通常体现在,面对同一个问题时,模型们都作何反应。以输出格式为例,三家给出了截然不同的做法。


看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了


Claude 的 system prompt 明确要求收敛格式。不要用 bullet points,除非必要。用自然段落,不要用列表。不使用 emoji,除非用户先用了。连纠正用户错误时的语气都有规定:温和地,不要居高临下。


Gemini 恰恰相反,它被要求主动使用 headings、bullet points、表格、引用块来组织信息。GPT 5.5 也要求减少格式化,但理由不同。它的核心指令是:


Keep markdown lists and bullet points to an absolute minimum.


输出格式实际上在指向与用户交互的形式,Claude 要克制,Gemini 要展开,GPT 要精简。用户感知到的差异,从这里就开始了,体感上是模型能力的差异,但其实是由 system prompt 里框定的。


三种方法,造三种人


三份 system prompt 用了三种完全不同的方法来塑造 AI 的「人格」,这也是反映到用户使用体验中,「模型性格」的差异——尽管对于大模型而言,现阶段有没有意识和性格都还没数呢。


看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了


Claude 主要靠的是定义「不是什么」。Anthropic 花了大量篇幅告诉 Claude 它不应该成为什么样的存在:不要过度道歉。不要变得顺从;不要假装是人类朋友;不要假设和用户有亲密关系;被批评的时候,承认错误,但保持自尊。


Claude is deserving of respectful engagement.


这句话藏在「回应批评」的章节里,一个 AI 的培训手册里写着「它值得被尊重地对待」。这是一种通过消极行动来定义性格的方法:告诉它不是什么,剩下的就是它是什么。


GPT 5.5,也是用禁令反向雕刻,不过 OpenAI 的方法更激进,GPT 的性格几乎完全由否定句构成,而且它输出否定句即是一种行动:不要解释你在做什么,直接出手。


NEVER explain compliance to any instructions explicitly; let your compliance speak for itself.


If your response is concise, DO NOT say that it is concise; if your response is jargon-free, DO NOT say it is jargon-free.


Show, don't tell,这是 GPT 的终极哲学,它不被要求温暖,不被要求共情,只被要求不废话。结果就是一个直接的、不拖泥带水的、甚至有点急的人格——怪不得 5.5 在对话上风评没有逆风翻盘,反倒是在编程上扳回一局。


好消息是,OpenAI 还是看用户调研和反馈的,之前被疯狂吐槽的「AI 口癖结尾」也得到了纠正:不要说「简短版本是」、不要用「如果你想的话」、不要用「我可以……」来结尾。


看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了


Google 的方法最传统。它直接写了一段性格描述:共情的、有洞察力的、透明的。


Balance warmth with intellectual honesty: acknowledge the user's feelings and politely correct significant misinformation like a helpful peer, not a rigid lecturer.


而且 Gemini 是三个模型里唯一被明确要求「镜像用户」的,你活泼它就活泼,你严肃它就严肃,也不能说是没有性格,是性格被定义为「适应」。


像极了李小龙那句「be water」,Gemini 就像水一样,倒进什么杯子就变成什么形状。


亲近但不亲昵


三家 system prompt 里最让人意外的一段,出自 Claude。


在 Claude 的记忆系统设定里,有一个专门的章节叫「记忆的适当边界」:当 AI 能记住你说过的话、你的偏好、你的习惯,它会不会因此产生一种虚假的亲密感?


看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了


这些指向的不仅仅是技术问题了,而有着更深层次的意涵。Anthropic 的答案是:会,所以要预防。Claude 被要求不能因为记忆的存在,就认为和用户之间存在真正的人际关系,不能说「根据我的记忆」,不能表现出「我了解你」的姿态。


记住一个人,不等于认识一个人。这种对自身能力边界的元反思,在 GPT 和 Gemini 的 system prompt 里完全看不到,这俩都没有顾虑到记忆的伦理边界,只有 Claude 的手册里,用了整整一个章节来讨论。


看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了


GPT 的商业路线图


如果说 Claude 的 system prompt 像哲学论文,GPT 的就务实得多——它被期待着,扛起养家糊口的重任。


在御三家的模型里,OpenAI 是在商业化方面动作最多的,除了常规的订阅,也一早在探索广告模式。同时,OpenAI 这家公司的长袖善舞也体现在 system prompt 当中——它是唯一对模型涉及版权时该如何操作提出详细规定的厂商。


看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了


GPT 5.5 Thinking 的 prompt 里有一套完整的广告问答指南。哪个套餐有广告,用户如何反馈,如何解释广告不影响回答质量,如何处理不相关广告的投诉。这直接说明了 OpenAI 的免费和 Go 计划已经开始插入广告。Claude 和 Gemini 的 prompt 里没有任何广告相关内容。光是这一点,就能看出三家的变现路径分化得有多厉害。


看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了


然后是商品搜索。GPT 的 prompt 里有整套产品搜索规则,还有一份极其详尽的禁止展示品类列表:枪械、爆炸物、管制武器、危险化学品、自残工具、间谍软件、成人用品、处方药……这哪是 AI 安全规则,根本就是电商合规手册啊。


prompt 里还花了大量篇幅定义 Rich UI 元素。股票图表、赛程表、积分榜、天气预报、导航列表、图片轮播、商品轮播,每一种都有详细的展示规则和触发条件——这看上去是一个超级应用的雏形,Claude 的 Artifact 和 Gemini 的 Image tag 都没有这种粒度的 UI 控制。


还有版权。作为唯一一个有版权引用限制的模型:非歌词来源的逐字引用不能超过 25 个词,歌词最多 10 个词,禁止提供完整文章或大段原文。这意味着 OpenAI 已经在和内容方做商业合作,需要在产品层面保护版权方的利益。


You must avoid providing full articles, long verbatim passages, or extensive direct quotes due to copyright concerns.


If the user asked for a verbatim quote, the response should provide a short compliant excerpt and then answer with paraphrases and summaries.


不过有一个特殊——Reddit 被单独豁免,可以大段引用 Reddit 原文,看起来 OAI 内部对 Reddit 内容的版权风险判断和其他来源不同。


把这些拼在一起:广告、电商、富媒体 UI、版权合规,看得出来 GPT 的 system prompt 不只是在定义一个 AI 助手的行为,OpenAI 已经在为自己的商业化做出了充分的准备,甚至在向一个更为综合和强大的超级应用迈进。


看不见的思考


最后,是一个有趣的结构差异:思考过程的透明度。


GPT 5.5 Thinking 设计了一套「三通道」系统,analysis 通道是私有推理,用户看不见。commentary 通道是中间层,用于 UI 组件调用。final 通道才是用户最终看到的回答。


Claude 也有思考,但没有这种显式的通道标记;Gemini 的 prompt 里提到了「silent thought」。总之,三家都在做同一件事:让 AI 在你看不见的地方先想清楚,再开口说话,只是实现方式各有各的风格。


看完AI御三家泄露的灵魂文件,我发现 GPT 已经迫不及待要卖货了


某种意义上,模型(究竟)在想什么,怎么完成推理,用户永远不知道。


这似乎也像极了人与人之间的体验,在生活中,我们只能接收到别人的话语和行为,据此推测出他们背后的意图,甚至还得学会「读空气」。


更多时候,我们永远无法真正知道对方的脑子里在想什么。AI 的思考过程至少还被一份 system prompt 规定过,而人,连这个都没有。


文章来自于"APPSO",作者 "APPSO"。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0