RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘
5403点击    2026-04-09 14:45

RL之后,大模型为什么更容易「越训越单一」?面对五花八门的改进思路,也许答案并不复杂:先试着改一改KL项。


近年来,基于可验证奖励的强化学习(Reinforcement Learning with Verifiable Reward, RLVR)已成为提升大语言模型推理能力的重要路径。


从数学求解到代码生成,再到SQL推断,大量研究表明,RL能显著提升模型在单次作答场景下的成功率。


然而,一个关键现象始终未得到充分解释:为什么许多经过RL微调的模型,虽然 Pass@1提升了,但在允许多次尝试时,Pass@k反而下降了?


这表明,模型或许更擅长「押中一次正确答案」,却丧失了原本丰富的解题路径与候选解空间。更进一步,这种现象往往伴随着灾难性遗忘(Catastrophic Forgetting)和跨领域泛化能力的下降。


现有方法通常将注意力集中于奖励设计、采样策略或熵调控,但研究团队发现,一个更基础、更关键的问题长期被忽视:RL目标中的divergence项,究竟应如何选择?


针对这一问题,复旦大学、无限光年、上海科学智能研究院(下称上智院)、上海创智学院的联合研究团队聚焦于长期被忽视的KL散度项,从divergence选择的角度破解这一难题。相关研究成果已被ICLR2026接收。


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘

论文标题:The Choice of Divergence: A Neglected Key to Mitigating Diversity Collapse in Reinforcement Learning with Verifiable Reward

论文链接:https://arxiv.org/abs/2509.07430

代码链接:https://github.com/seamoke/DPH-RL


复旦大学博士生、无限光年实习生李龙,复旦大学及上海创智学院博士生周潪剑,为共同一作。复旦大学研究员、上海科学智能研究院AI科学家屈超,为通讯作者。


divergence 选择困境:

反向KL与约束缺失的代价


在大多数RL后训练方法中,常见做法是采用reverse-KL,或直接移除 divergence 约束。然而,这两种选择均存在明显缺陷:


  • Reverse-KL本质上是mode-seeking的,会鼓励策略向少数高概率模式收缩;
  • 缺失divergence项意味着模型在训练过程中缺乏对原始知识分布的显式保护机制。


这两种设定都会导致模型日益集中于少量「熟悉答案」,进而引发Pass@k下降、既有能力遗忘以及跨任务泛化能力减弱。若以更形式化的方式表述,传统 RLVR 可概括为:


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


其中,πθ为当前策略,πref为参考策略(通常为初始模型或SFT模型)。问题的关键在于:若此处的divergence选择不当,后半部分将不再是「保护机制」,反而会沦为「多样性压缩器」。


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


若将基础模型视为已掌握大量知识与多样解法的「知识分布」,那么RL微调的目标本应是在保留既有能力的前提下进一步提升任务表现。


然而现实中,许多RL方法更像是在不断强化少数高回报轨迹——模型逐渐偏向一两种最易获得奖励的解法,而舍弃了原本同样有效但出现频率较低的其他路径。


研究团队进行了一项有趣的实验:通过SFT让模型学习到多种不同风格的回答方式,仅凭前缀即可判断模型采用了哪种风格;然而经过标准GRPO训练后,模型几乎只保留了一种风格。


因此,研究团队认为,RLVR中真正需要解决的,不仅是「如何学得更强」,更包括:如何在优化奖励的同时,保全模型原本拥有的多样性。


方法:

将divergence从「约束项」重塑为「保多样性机制」


基于上述观察,团队提出了DPH-RL(Diversity-Preserving Hybrid RL)。这项工作的核心思想是:


divergence不应仅是训练时的附带正则项,而应被重新设计为主动保护模型多样性的机制。


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


与倾向于收缩至单一模式的reverse-KL不同,这类divergence会鼓励新策略继续覆盖参考策略中原本存在的多种解法。换言之,它并非强迫模型「只记住最优路径」,而是在提醒模型:「你可以继续变强,但不要忘记原本掌握的东西。」


从机制上看,该研究的方法可理解为一种rehearsal mechanism(复现机制):模型在训练过程中持续参考初始策略的分布,从而保留原有的知识覆盖范围,避免在强化学习过程中发生过度收缩。


以提到的forward-KL为例:


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


此处的期望是对参考策略πref取的。只要参考策略曾覆盖过某些合理解法,新策略πθ便不能轻易将其概率压至接近零。正因如此,forward-KL更具mass-covering倾向,更适合作为「保多样性」的工具。


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


此外,DPH-RL在实现上也更为高效。作者采用基于generator function的方式计算f-divergence,仅需从初始πref预采样,无需在训练过程中维护在线reference model。


这使得方法在训练成本上更加友好,更适合实际大规模后训练场景。在具体训练时,DPH-RL 并非对所有样本「一刀切」地施加同一种约束,而是先将数据划分为两部分:


  • 探索集合Dexp:针对模型尚未掌握的困难样本,不加入任何KL penalty让模型在困难样本上更激进地探索高奖励解法。此处采用标准 PPO-clip 目标:


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


  • 完美集合Dpef:针对模型已基本掌握的样本,πrefDpef样,依靠f-divergence保持在正确样本上的多样性。更直观地说,模型在这部分样本上不再追求「获取更高奖励」,而是尽量不偏离原本已表现良好的行为分布,其一般形式为:


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


因此,整体训练过程更适合表述为「分情况计算」的形式:


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


换言之,并非对每个样本同时叠加「探索项 + 保持项」,而是先判断样本属于Dexp还是Dpef,再计算对应的loss。


更优的divergence选择

可同时兼顾性能提升、多样性保留与泛化能力


实验设置


论文采用Llama3.1-8b作为实验模型,仅在BIRD数据集上训练,并在BIRD、Spider 及数学任务数据集上测试OOD泛化能力。


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


In-Domain性能:Pass@k的恢复


在BIRD数据集上,结果清晰表明:


  • GRPO与DAPO虽可能提升了Greedy(相当于Pass@1)表现,但其Pass@8Pass@16分数均显著低于Base Model,证实了多样性坍塌的存在;
  • RKL(反向KL) 表现同样不佳,Pass@k出现下降;
  • DPH-F与DPH-JS不仅Greedy分数最高,其Pass@8分数也超越了Base Model。其中,DPH-JS的Pass@8分数较GRPO高出4.3%在更大的k设置下,DPH-RL更接近base model,缓解了Pass@k的崩塌。


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


Cross-Domain与OOD性能:

泛化能力的保持


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


我们将SQL任务上的Spider数据集视为cross-domain,将数学数据集视为out-of-domain。可以看到,所有仅在SQL数据集Bird上训练得到的RL模型,在分布发生偏移时都会出现不同程度的性能下降。


正如图中所示,随着任务与训练分布的差异逐步增大,Pass@k整体呈现明显下降趋势,这也是OOD场景中的普遍挑战。


不过,更值得关注的是各方法的相对表现


  • DPH-F与DPH-JSPass@k分数显著高于其他所有RL方法,最接近Base Model的原始水平;
  • DAPO在OOD任务上表现不稳定、性能保留能力不如DPH-F,DPH-F的Pass@16分数较DAPO高出9.0%
  • Reverse-KL在OOD场景下表现严重下滑。


这表明,通过保留解决方案的多样性,DPH-RL能够更有效地防止灾难性遗忘,从而在面对新领域问题时保持更强的泛化能力。


保留 (Keep)与探索 (Exploration)的显式平衡


RL特训出「押题大师」?破解模型微调中的多样性危机与灾难性遗忘


为了揭示DPH-RL的核心机制,论文通过解构模型在Pass@8上的表现,分析了 RL 微调前后的知识动态:


  • 保留率 (Keep Rate):衡量知识稳固度。指基础模型原先能做对的样本在微调后依然保持正确的比例。
  • 额外探索率 (Additional Exploration Rate):衡量能力增量。指基础模型原先做错的样本在微调后转而做对的比例。


实验结果揭示了DPH-RL与GRPO之间的核心区别:


  1. 高保全性DPH-RL拥有极高的保留率,能有效留存模型已有的稳固知识,从根本上避免了「灾难性遗忘」。
  2. 净增益优势相比之下,GRPO虽然具有一定的探索能力,但在获取新知识的同时,往往伴随着对原有能力的剧烈侵蚀——即典型的「学新忘旧」。


由此可见,DPH-RL通过对强化学习组件的功能解耦,实现了保留探索的显式平衡。它证明了在通过 RL 提升模型能力上限的同时,稳固已有的知识底座是取得最终胜出的关键。


总结


本文系统分析了RLVR中普遍存在的diversity collapse现象,指出常用的reverse-KL 及无divergence设定均缺乏有效的知识保留机制。


为此,作者提出DPH-RL,将mass-covering f-divergence作为保护模型多样性与缓解遗忘的核心工具。


实验表明,DPH-RL不仅能缓解Pass@k下降问题,还可同时提升Pass@1 ,并在跨域任务上展现出更优的稳定性与泛化能力。更重要的是,这一结果启示我们:在RL后训练时代,保住多样性与提高奖励同等重要。


文章来自于"新智元",作者 "YHluck"。

关键词: AI , 模型训练 , RLVR , 人工智能
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI数据分析

【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。

项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file

本地安装:https://www.deepbi.com/

【开源免费airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。

项目地址:https://github.com/hitsz-ids/airda

2
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner