
Adam获时间检验奖!清华揭示保辛动力学本质,提出全新RAD优化器
Adam获时间检验奖!清华揭示保辛动力学本质,提出全新RAD优化器Adam优化器是深度学习中常用的优化算法,但其性能背后的理论解释一直不完善。近日,来自清华大学的团队提出了RAD优化器,扩展了Adam的理论基础,提升了训练稳定性。实验显示RAD在多种强化学习任务中表现优于Adam。
来自主题: AI技术研报
7731 点击 2025-04-23 14:09
Adam优化器是深度学习中常用的优化算法,但其性能背后的理论解释一直不完善。近日,来自清华大学的团队提出了RAD优化器,扩展了Adam的理论基础,提升了训练稳定性。实验显示RAD在多种强化学习任务中表现优于Adam。
在训练大型语言模型(LLM)时,Adam(W) 基本上已经成为了人们默认使用的优化器。