
OpenAI的强化微调:RL+Science 创造新神还是灭霸?
OpenAI的强化微调:RL+Science 创造新神还是灭霸?2024 年 12 月 6 号加州时间上午 11 点,OpenAI 发布了新的 Reinforcement Finetuning 方法,用于构造专家模型。对于特定领域的决策问题,比如医疗诊断、罕见病诊断等等,只需要上传几十到几千条训练案例,就可以通过微调来找到最有的决策。
2024 年 12 月 6 号加州时间上午 11 点,OpenAI 发布了新的 Reinforcement Finetuning 方法,用于构造专家模型。对于特定领域的决策问题,比如医疗诊断、罕见病诊断等等,只需要上传几十到几千条训练案例,就可以通过微调来找到最有的决策。
审稿人严重不足,审稿意见急剧下滑,CVPR官方坐不住了,不仅出台了七条新规,还再三强调,禁止审稿人用大模型生成/翻译评审结果。
近日,月之暗面一直处于风暴眼中。这固然与朱啸虎的连番指责、Kimi的股权纠纷迷雾有关,也因一定程度上,旗下产品Kimi正在与更谨慎投放、更积极寻找商业化的大模型行业主线“逆向而行”。
自从 Chatgpt 诞生以来,LLM(大语言模型)的参数量似乎就成为了各个公司的竞赛指标。GPT-1 参数量为 1.17 亿(1.17M),而它的第四代 GPT-4 参数量已经刷新到了 1.8 万亿(1800B)。
作为计算机视觉领域的开拓者,李飞飞在人工智能革命中扮演了重要角色。她的新回忆录《我所看到的世界》(The Worlds I See)详细讲述了她从学术到技术突破的旅程,以及如何在人工智能的最前沿找到自己的使命。
AI独角兽公司“月之暗面”,再一次被推上了风口浪尖。
MinMax海螺AI新模型,让2D角色动起来了!
OpenAI第二天的直播,揭示了强化微调的强大威力:强化微调后的o1-mini,竟然全面超越了地表最强基础模型o1。而被奥特曼称为「2024年我最大的惊喜」的技术,技术路线竟和来自字节跳动之前公开发表的强化微调研究思路相同。
那时GPT-2刚刚发布,我很清楚技术的发展轨迹,这样的模型表面上是互联网或网页的模型,但肯定会带来一些非常有趣的东西。于是我打电话给Nick和其他的朋友们,我说“我们应该弄清楚怎么打造这些东西”。
OpenAI“双12”刚进行到第二天,就把大模型圈搅得好不热闹! 一边是Meta没预告就发布了Llama 3.3,70B版本就能实现以前405B的性能。