Llama版o1来了,来自上海AI Lab,强化学习代码已开源,基于AlphaGo Zero范式
Llama版o1来了,来自上海AI Lab,强化学习代码已开源,基于AlphaGo Zero范式复刻OpenAI o1推理大模型,开源界传来最新进展: LLaMA版o1项目刚刚发布,来自上海AI Lab团队。
复刻OpenAI o1推理大模型,开源界传来最新进展: LLaMA版o1项目刚刚发布,来自上海AI Lab团队。
从 AlphaGo、AlphaZero 、MuZero 到 AlphaCode、AlphaTensor,再到最近的 Gemini 和 AlphaProof,Julian Schrittwieser 的工作成果似乎比他的名字更广为人知。
自从 OpenAI 的 o1 问世以来,它强大的推理能力就承包了 AI 圈近期的热搜。不需要专门训练,它就能直接拿下数学奥赛金牌,甚至可以在博士级别的科学问答环节上超越人类专家。
OpenAI o1 在数学、代码、长程规划等问题取得显著的进步。一部分业内人士分析其原因是由于构建足够庞大的逻辑数据集 <问题,明确的正确答案> ,再加上类似 AlphaGo 中 MCTS 和 RL 的方法直接搜索,只要提供足够的计算量用于搜索,总可以搜到最后的正确路径。然而,这样只是建立起问题和答案之间的更好的联系,如何泛化到更复杂的问题场景,技术远不止这么简单。
语言模型的 AlphaGo 时刻?
当一家人工智能公司的首席执行官更像是计算机科学家而不是推销员时,我感觉更舒服
RLHF到底是不是强化学习?最近,AI大佬圈因为这个讨论炸锅了。和LeCun同为质疑派的Karpathy表示:比起那种让AlphaGo在围棋中击败人类的强化学习,RLHF还差得远呢。
李世石对抗AlphaGo失利,AI影响其围棋事业和观念。
把AlphaGo的核心算法用在大模型上,“高考”成绩直接提升了20多分。
AI足球教练登上Nature子刊,谷歌DeepMind与利物浦队合作三年打造:如同AlphaGo颠覆围棋一样,改变了球队制定战术的方式。