图像生成用RL已经打出了漂亮的成绩单,那3D生成呢?
当GRPO让大模型在数学、代码推理上实现质变,研究团队率先给出答案——首个将强化学习系统性引入文本到3D自回归生成的研究正式诞生,并被CVPR 2026接收。该研究不只是简单移植2D经验,而是针对3D生成的独特挑战,从奖励设计、算法选择、评测基准到训练范式,做了一套完整的系统性探索。

RL在文本、图像生成上屡试不爽,但直接搬到3D行不通。

核心矛盾在于:3D对象没有「标准视角」。一张图对不对,人一眼就能看出来;但一个3D物体,需要从多个视角同时评估几何一致性、纹理质感与语义对齐——任何一个维度设计不当,训练就会崩。
更深层的问题是,3D生成模型在自回归解码时,每一个token都携带着对整体结构的隐式承诺。这种长程依赖让奖励信号的稀疏性问题在3D中比2D更加突出——模型很难在中途感知到哪里出了问题。
研究团队将这个问题拆成四个维度系统研究:
奖励模型怎么设计——哪类奖励信号对3D生成最有效?
RL算法怎么选——GRPO的哪些变体适合3D的序列特性?
如何评测——现有基准能否真实衡量3D生成的推理能力?
范式怎么升级——如何让RL配合3D生成的层次结构一起工作?
核心洞察:人类偏好是「锄」,其他奖励是「加分项」。

研究测试了多种奖励组合,包括人类偏好分数(HPS v2.1)、语义对齐(CLIP Score)、美学质量以及3D几何一致性四类维度,结论清晰:
最出人意料的发现:通用大模型(Qwen2.5-VL)评估3D一致性,比专用模型更鲁棒。原因在于,目前没有现成的3D几何一致性专用奖励模型,而通用多模态大模型凭借对空间关系的广泛理解,反而能填上这个空白,给出更稳定的奖励信号。
实践意义:不要寄望于找到一个「万能奖励」,而应该以人类偏好为核心,在此基础上叠加几何一致性与语义对齐的多维度奖励集成,才能覆盖3D生成质量的全部维度。
核心洞察:3D生成天然适合Token级优化,序列级操作反而帮倒忙。

研究系统对比了GRPO、DAPO、GSPO三类算法,揭示了一条重要的规律:
数据扩展方面也有清醒的结论:
训练数据翻倍有效,迭代轮数翻三倍则会导致过拟合——模型开始在偏好特征上死记硬背,对少见物体类别的泛化能力明显下降。这说明在3D生成的RL训练中,数据多样性比训练时长更重要。

现有的3D生成基准(如ShapeNet、Toys4K)主要关注对象多样性,却无法衡量模型在复杂文本描述下的隐式推理能力——比如「一把椅子,木质扶手,腿部有轻微磨损,从左后方45度俯视」这类细粒度语义对齐的生成质量。
为此,研究团队提出了MME-3DR基准:包含249个精心筛选的复杂3D对象,评测维度覆盖多视角几何一致性、语义细节对齐、纹理真实感三个层次,专门用于衡量模型在推理密集场景下的生成表现。MME-3DR的设计使得仅靠记忆训练数据的模型无法取得高分,真正区分了生成能力与泛化推理能力的差距。
AR3D-R1在MME-3DR和Toys4K两个基准上均超越了Trellis等现有SOTA方法,核分布距离(Kernel Distance)达到0.156,验证了RL训练在推理能力上带来的实质提升。
核心洞察:3D生成内在就是分层的,RL范式也应该跟着分层。

研究团队在训练过程中观察到一个有趣现象:模型在早期迭代先学会全局几何形状,后期才逐步细化纹理细节——这与人类感知3D物体的方式完全一致(先看轮廓,再看细节)。受此启发,研究提出了Hi-GRPO(层次化GRPO)框架:
Step 1(粗粒度阶段):通过Chain-of-Thought生成高层语义推理,产出粗糙几何形状,专属奖励聚焦几何一致性与整体结构完整性;
Step 2(细粒度阶段):基于Step 1的CoT输出生成低层视觉推理,产出精细纹理细节,专属奖励聚焦外观质量与部件完整性。
两阶段分别使用独立的奖励集成,避免了几何奖励与纹理奖励互相干扰,让模型在每个阶段都能接收到最准确的学习信号。这种分层设计将3D生成的结构性先验直接编码进了RL的训练范式中。
最终模型AR3D-R1的量化成果:
这项研究的核心贡献不只是一个更好的3D生成模型,而是为这个领域建立了一套系统性的研究框架:当你想把RL引入3D生成时,该测哪些奖励、选哪类算法、用什么基准评测、以及如何设计与3D结构先验相匹配的训练范式。
正如作者在论文标题中所问:「我们准备好在文本到3D生成中使用RL了吗?」——这项工作的答案是:准备好了,但前提是你得为3D量身定制奖励、算法和训练范式,而不是简单照搬2D的经验。
随着RL技术在语言和图像领域的持续成熟,这套方法论的价值将超越3D生成本身,为更广泛的多模态生成任务的RL化提供可复用的思路。代码已开源,欢迎探索。

论文链接:
https://arxiv.org/pdf/2512.10949 (CVPR 2026)
代码链接:
https://github.com/Ivan-Tang-3D/3DGen-R1
文章来自于微信公众号 "量子位",作者 "量子位"