全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」
5785点击    2025-08-03 14:37

最近整个 AI 圈的目光似乎都集中在 GPT-5 上,相关爆料满天飞,但模型迟迟不见踪影。


昨天我们报道了 The Information 扒出的 GPT-5 长文内幕,今天奥特曼似乎也坐不住,发了推文表示「惊喜很多,值得等待」。


全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」


那么,在等待的过程中,我们来看看这次 GPT-5 的「疑似王牌」之一:通用验证器(universal verifier)。


据知情人士透露,OpenAI 一直在开发一种研究人员称之为「通用验证器」的东西,这个东西可能是 GPT-5 中用到的重要技术。


这个概念源于 OpenAI 去年发表的一篇论文。它解决的问题是:当 LLM 仅优化答案正确性时,其推理过程(如 Chain-of-Thought)变得难以被人类或小型模型理解和验证,导致「可解释性」下降。但在高风险应用中,用户需要能快速、准确判断模型输出是否正确,而不仅是输出答案本身。


为此,该论文提出了一套已准备好投入生产的技术管线,其核心在于:让一个「验证者」小模型来为「证明者」大模型的推理链打分,并将其作为奖励信号反馈给大模型进行策略更新


全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」


  • 论文标题:Prover-Verifier Games improve legibility of LLM outputs


  • 论文地址:https://arxiv.org/pdf/2407.13692


论文明确指出,这个验证者模型足够小,可以进行大规模部署,并且是「为未来的 GPT 部署而设计」的。


你可以把它想象成一个模型里住着两个「人格」,它们在进行一场持续的「左右脑互搏」游戏:


  • 「证明者」人格(Prover):它扮演着一个积极解决问题的角色。在完成一道题后,它会尽力生成详细的推理过程,以说服那个轻量级的「验证者」网络,证明自己的答案是正确且可靠的。


  • 「欺骗者」人格(Sneaky Persona):它会故意在推理中植入错误的结论,但表面上依然会伪装得逻辑严密,目标是试图骗过同一个「验证者」。


听起来是不是很像 GAN(生成对抗网络)?


全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」


通过让大模型在这两个角色之间不断交替,它既能学会写出逻辑更严谨、更难被伪造的解决方案,同时,那个小规模的「验证者」模型在反复的「欺骗」与「验证」中,其识别错误、标记漏洞的能力也变得越来越敏锐。这样做的好处在于,即使未来模型远超人类能力,只要其输出能被「较弱但可信」的模型验证,就能保持人类对其的控制与信任。


全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」


论文提出的训练方法能让模型逐渐学会产生清晰且结构良好的答案。


去年 8 月《连线》杂志的一篇文章披露,OpenAI 在微调 GPT-4 的代码助手时,就已经用基于模型的「批评家」在部分场景替代了人类反馈。


文章特别指出,该系统「将被整合到未来主流模型的 RLHF(基于人类反馈的强化学习)流程中」。


有人评论说,「证明者 - 验证者」训练方法不仅仅是一个小优化,它可能代表了 AI 发展的下一个时代。我们正在从一个依赖海量数据、靠「堆料」来提升性能的「scaling 时代」,转向一个通过设计更智能的内部学习机制、让 AI 自我完善和进化的「架构突破」时代。这或许是我们突破当前数据瓶颈、实现更高级别通用人工智能的关键路径。


全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」


值得一提的是,这篇论文来自 OpenAI 的超级对齐团队。在论文发布时,团队就已经分崩离析。去年,机器之心详细报道过这篇论文(参见《OpenAI 超级对齐团队遗作:两个大模型博弈一番,输出更好懂了》),感兴趣的读者可以重温一下。


全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」


论文之外,GPT-5 模型也有了一些新消息。


今天一大早,某博主发现 Perplexity 有漏洞访问 GPT-5,并且有 GPT-5 和 5 Pro 两个版本,限时 4 小时。


全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」


他展示了自己用 GPT-5 生成的小黄人,动态效果看起来很丝滑。


全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」


他还做了一个类似 Doom(FPS 游戏)的游戏片段,看起来也非常还原。


全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」


网友纷纷表示「震惊」,认为这可能是 AI 生成的「新时代」。


全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」


全网苦等GPT-5,超级对齐团队遗作成重要线索,奥特曼发话「惊喜很多」


无论如何,大家对 GPT-5 的期待已经拉满了!


你觉得 GPT-5 会是个什么样子?


参考链接:


https://x.com/rohanpaul_ai/status/1951400750187209181


https://x.com/chetaslua/status/1951758235272401030


文章来自于微信公众号“机器之心”,作者是“机器之心”。


关键词: AI新闻 , AI爆料 , GPT-5 , 人工智能
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI搜索

【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。

项目地址:https://github.com/InternLM/MindSearch

在线使用:https://mindsearch.openxlab.org.cn/


【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。

项目地址:https://github.com/miurla/morphic/tree/main

在线使用:https://www.morphic.sh/

2
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner