对话马骁腾:大厂AI Lab没死,只是换了个活法

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
对话马骁腾:大厂AI Lab没死,只是换了个活法
8967点击    2026-04-01 09:40

对话马骁腾:大厂AI Lab没死,只是换了个活法

 Lab首席科学家马骁腾博士


近期,大厂的AI实验室正迎来一场深度结构性调整。


3月20日,腾讯宣布成立近十年的AI Lab正式撤销,大部分团队并入大语言模型部混元团队,向首席AI科学家姚顺雨汇报。更早的3月16日,阿里则成立了Alibaba Token Hub(ATH)事业群,由CEO吴泳铭直管,通义实验室与MaaS、千问、悟空、AI创新事业部实现全面统一,被纳入token事业群强调业务联动。


当创新部门与业务中台的边界变得模糊,科研探索的长期价值似乎让位于商业落地的现实诉求。曾承担着前沿技术探索的AI Lab,在大厂成为一种过去式。


近期,我们与Mind Lab首席科学家马骁腾展开深度对话。“无论阿里也好,腾讯也罢,整合原因都一样,大模型太贵了。”他告诉我们,国内大厂频繁调整AI Lab,不是因为它们做得不好,而是这种模式已经不适应大模型转型需要了。


大厂的AI Lab退出历史舞台的同时,近年硅谷开始流行一个新概念Neo Lab,专指由顶级AI研究者创立的,以提升智能为目标的研究型实验室。其中最为瞩目的代表就是图灵奖获得者杨立昆创立的AMI Labs。


Mind Lab是个人专属智能体公司Mindverse去年成立的一家Neo Lab。


Mind Lab的成员均毕业于全球知名学府,有OpenAI、Deepseek、Seed 等顶尖实验室的工作经历。例如,马骁腾博士毕业于清华大学自动化系,常年深耕强化学习领域。Mind Lab创始人Andrew 则毕业于麻省理工大学,目前担任深圳清华大学研究院的研发中心主任,之前曾和姚顺雨在OpenAI参与主导Agent微调的经典工作之一FireAct。


相比大厂的AI实验室,Mind Lab更强调研究直接落地产品,产品数据同步反哺研究。马骁腾说,“Mind Lab研究和产品中间没有断层,组织结构可以高频迭代,几乎每两个月就有一次调整。”


在Neo Lab新组织形态下,过去一年,Mindverse发布了三款产品,首款试验性产品Personal Agent——Macaron AI去年8月上线,还推出一个用 CPU 就能高效训练万亿参数模型的后训练平台Mind Lab Toolkit,成本优化十倍,一天即可轻松完成一轮训练。它和前OpenAI高管创立的Thinking Machines同期实现了1T LoRA-RL,是业界在万亿参数模型上进行高效强化学习的第一个研究成果。


在他看来,大厂纷纷调整AI Lab,不是说研究变得不重要了,而是衡量研究的核心指标变了——不再是顶级刊会发表的论文数量,关键看能不能进入真实世界,形成闭环。


这方面的典型代表就是谷歌的DeepMind。2023年,谷歌将 Brain与DeepMind合并,使其成为全公司AI战略的“中央引擎”。它不仅承担AGI长期探索、核心模型研究,还肩负Gemini应用落地。如今,DeepMind已从当年谷歌花费6.5亿美元收购的小型实验室,扩张为同时推进约30个前沿项目的庞大机构。


“从这个角度看,DeepMind 做的是一种更大的产品驱动研究。”马骁腾说。


以下是《白鲸实验室》和他的对话,为了文本阅读方便,我们做了精简处理。


01

从“腾讯 AI Lab”说起:一个时代的结束


白鲸实验室:过去大家提到 AI Lab,往往会联想到谷歌、腾讯里的“大厂前沿研究部门”。AI Lab 在大厂内部到底承担什么角色?


马骁腾如果一定要分类,AI Lab大致可以分为三类:谷歌DeepMind 、腾讯AI Lab这种“研究型 Lab” ,阿里通义这种“大模型原生 Lab” ,还有一类是我们现在做的这种“研究+产品一体化”的Lab 。腾讯 AI Lab 本质上是对标 DeepMind建立的。DeepMind诞生在AlphaGo之后,是一个从属于大公司、不为业绩目标负责的纯研究型实验室。它其实是“上一代 AI”的产物。通义的 Lab就属于大模型时代的原生AI lab。


白鲸实验室最近几年,从阿里大厂 AI Lab 出现了合并、调整甚至裁撤的趋势,这背后的原因是什么?


马骁腾:据我了解,腾讯其实已经在尽力平衡研究和业务的关系了。最典型的例子就是腾讯AI Lab的游戏AI策略做得很好,也确实用到了腾讯的游戏业务,这说明他们已经在往“实用”的方向靠了,工作重心也从一开始偏向“发论文、追新颖”(for novelty),转向更关注“能不能真正落地、服务业务”(for application)。


这也是一种思路上的根本转变。不再为了研究而研究,而是让研究真正为产品服务。


所以不是 AI Lab 做得不好,而是这种模式已经不适应这个时代了。其实无论阿里也好,腾讯也罢,整合原因都一样,大模型太贵了。举个例子,原来通义实验室是一个小Lab,花的钱并不多。但后来模型做得越来越好,烧的钱越来越多,影响力也越来越大,它就从一个实验室上升到了集团层面。当老板看到账单,自然会思考投入和产出比。


就像OpenAI 关停 Sora ,显然也不是因为Sora做得不好,而是需要集中火力去做一些更重要的事情。


白鲸实验室:AI Lab曾被认为是研究者的“理想国”,这在大模型时代无法持续了吗?


马骁腾大模型带热AI技术潮之前,AI Lab 确实是研究员最好的去处之一。但问题是它和真实世界之间存在“gap”(差距)。 Lab做研究,业务要结果,这中间是断裂的。但现在,大模型技术直接进入了产品,包括Chat 、Agent 、AI 搜索,这些都是直接面对用户的 ,所以这个gap 也就不允许再存在了。


白鲸实验室:是否可以说,AI Lab和业务之间的矛盾,一定程度上是技术人员和产品经理在“做精”还是“做快”上的冲突。在你看来,大厂的AI Lab是否也存在这种“工程严谨性”与“创新探索”的冲突?


马骁腾:其实在模型层面,工程严谨性并没有大家想象的那么高,现实情况往往更激进,今天有了算法的新突破,明天就想部署到产品里。


一个非常明显的表现就是模型不再攒大活,比如之前OpenAI发布的模型节奏是GPT3、3.5、4,时间跨度一年多。现在则变成了5.1、5.2、5.3、5.4,发布周期明显变短了。为了快速迭代,大厂甚至愿意容忍一些中间版本,在不够好的情况下发布。


白鲸实验室:过去两年,大厂AI Lab的成果不少都以论文的形式出现,传统AI Lab承担着为大厂赢得学术声誉的职能。AI Lab是否曾陷入“为发论文而做研究”的陷阱,这种倾向是否与公司追求产品落地、商业回报的目标相违背?


马骁腾:过去大厂常用专利,或者在Nature、顶会发表论文来彰显技术实力。去年之前,论文还没有通货膨胀,发一些好的 paper能带来很强的影响力和企业红利。当时大家对该怎么搞AI,都很迷茫,一边探索一边批量生产论文也是个自然过程。


但到了今天,很多的问题已经被解决,比如如何构建一个推理模型,或是基于强化学习的智能体模型,这些技术路径早已不是秘密。现在模型厂商真正需要解决的问题,已从纯技术突破到把技术转化为优秀的产品与用户体验上。


现在,大模型领域的论文通货膨胀已到了临界点。我们最近招了多位顶尖researcher,他们几乎都表态不想再发论文了。 一方面有了AI 工具,研究员发表论文效率确实提升了。原来一个博士生需要四年完成的工作,现在一个月就能完成的八九不离十。从AI搜索文献、分析实验结果、画图、排版,甚至跑实验,效率提速了,论文本身的价值便被稀释了。


这一点其实所有的researcher心知肚明。现在,几乎没人只是为了发一篇paper而做research了。


白鲸实验室:大家不向往成为比如Kimi、DeepSeek论文的共同作者了吗?


马骁腾:我觉得这是两个概念。大家之所以想成为DeepSeek 论文的作者,不是单纯为了发篇论文,而是因为DeepSeek模型本身很厉害。不是所有的paper都是 DeepSeek R1。


现在每年可能有几十万篇AI相关的paper,数量还在指数级暴涨,但其中大部分只是为了做探索而发表。只要在toy example(示例)上跑通了,就被视为好的research,几乎没人会追问实际情况有没有用、能不能落地。


02

AI Lab的核心使命变了


白鲸实验室:大厂纷纷裁撤AI Lab,这是不是意味着AI lab原来承担的使命已经结束了?


马骁腾:其实我的理解是相反的,AI Lab的地位反而被抬高了。谷歌在2014年1月底以6.5亿美元收购了只有30、40人的DeepMind,现在DeepMind为谷歌带来的回报远超当初。DeepMind不仅没有消失,scope(业务领域)还变大了。


白鲸实验室:像谷歌这样的海外大厂,AI Lab(如DeepMind)和国内大厂的AI Lab,本质区别是什么?除了资金和人才密度,在组织目标、学术自由度以及“长期主义”上有差异吗?


马骁腾:我觉得本质区别不只是资金和人才密度,是它们在公司里的组织定位不一样。


腾讯AI Lab更偏企业战略工具,DeepMind更偏使命驱动型的前沿组织。DeepMind从一开始就更像是为下一代AI系统,甚至AGI这种更长期的目标服务,所以它天然会拥有更高密度的资源、更强的人才配置,也会被允许去做周期更长、不确定性更高的研究。这个背后当然也和 Google 整体的体量、资本能力,以及对长期投入的容忍度有关。


今天如果还把 DeepMind理解成一个纯做前沿研究的组织,其实已经不准确了。DeepMind也对Gemini这样的核心产品负责。现在几乎所有顶级AI Lab的目标都指向更通用的智能。


一个AI Lab如果只是做前沿研究,却无法形成产品落地,无法打通真实环境里的应用和反馈闭环,是远远不够的。


白鲸实验室:字节AI Lab的演变路径很有代表性。2016年成立,2020年转为技术中台,2024年拆分为Seed(基础模型)和Flow(产品创新),2025年整体并入Seed。这本质上是一个“从独立Lab到业务中台,再到模型产品一体化”的收缩过程。腾讯AI Lab现在也走了类似的路——撤销后并入混元。你如何评价这条“先散后收”的路径,这是大厂AI Lab的必然归宿吗?


马骁腾:其实这不是模式本身的问题。在迷茫期,大家都在探索,现在路径已经明确,做好模型能带来非常稳定的收益,API 能卖得多,市值可以拉高。站在公司的角度上,为什么还要花时间做没有意义的事情呢?


后面AI Lab可能会再分开、合并,大家可以理解为一种历史的循环。每当进入技术平台期、方向不明确时,就会散开做探索。一旦路径清晰,就会重新聚焦做应用和落地。


白鲸实验室:字节Seed现在的组织架构很有意思,吴永辉组建了三大团队:Edge(长期AGI课题)、Focus(突破基础模型短板)、Base(当前模型迭代),还取消了大部分团队的OKR,发放独立的“豆包虚拟股”,鼓励发论文。但矛盾的是,2025年下半年,资源明显向短期有成果的团队倾斜,部分前沿的研究领域被忽视。大厂AI Lab的职能变得有些挣扎,既要考虑业务,又要做长期研究?


马骁腾:其实从算力资源来看的话,会更直观。一个业务上跑得不错的模型,一旦请求量上来,推理自然要吃掉更多的卡。从业务角度看,这当然是好事,但同一池子的资源就那么多,推理多占一点,留给 researcher 做训练和长期课题探索的卡就会相应变少。


所以你会看到,同一个组织里,一边是短期可见的产品增长和营收,一边是周期更长、不确定性更高的基础研究,两边天然是拉扯的。只要还共用一套资源,这种张力就会一直存在。


白鲸实验室:字节AI Lab历史上还有一个有意思的细节:2020年从“集团级前瞻项目”转为“技术中台”,是因为马维英(时任AI Lab的负责人)的汇报对象从张一鸣变成了抖音负责人张楠。AI Lab从“老板直管”降到了“业务支撑”。腾讯AI Lab也面临类似问题。在你看来,AI Lab在一个大厂体系内,到底应该向谁汇报?是CEO办公室(如姚顺雨的设置)业务部门,还是独立的科研体系?


马骁腾:我感觉汇报的链路越短越好。据我了解,其实大家的汇报层级,从 Lab负责人到一线的大头兵,最多不会超过三级。甚至有一些更极端的 Lab,组织结构扁平得可怕。


本质是决策者知道的信息越多,决策失误的链路就会越短。不是说 Lab 负责人要对每个决定拍板,而是他要知道一线发生了什么。在现在模型的迭代速度下,组织还是要扁平一点,让信息都能通过这个人同步给集团最终决策者。


03

第三种AI Lab


白鲸实验室:你们为什么会想要做Mind Lab?


马骁腾:Mind Lab属于第三种实验室,我们叫它NEO Labs (研究型创业实验室)。姚顺雨在The Second Half的文章里提到,AI下半场,评估与基准(Benchmark)比模型迭代更重要。过去拼模型架构、训练、规模,用旧基准刷分,基准和真实世界是脱节的。现在大模型预训练+RL已经成熟,作为一家后训练公司,我们认为最重要的就是taste,就是我们到底应该往哪个方向优化模型?


对于预训练公司,好的Benchmark就是各类公开排行榜。但对于后训练公司则不同。我们需要从业务反推优化目标。比如优化人机交互的UI,按钮位置等细节完全取决于产品属性,这需要重新定义什么是“好模型”、“好产品”,以及如何创造新的产品特性。而且这种设计既不是传统产品经理能完成的(他们不懂模型语言),也不是研究员擅长的(他们多数缺乏用户思维),也不是大厂语境下模型经理的责任(他们只对固定Benchmark负责)。所以这也是我们持续投入研究的原因。


白鲸实验室Mind Lab和前两种AI Lab相比,最大的区别是什么?


马骁腾:大厂的Lab在研究和产品中间都会有距离,而在Personal Agent领域,我们的Benchmark是“一人一Benchmark”——每个用户都有自己的评估标准。这就要求对用户的记忆和个性有深入洞察,背后需要大量的研究支撑。


所以我们的Mind Lab新设了一个研究+产品的协作组,将产品经理引入模型Harness的设计流程中。不同于传统大厂中产品经理仅负责提需求,我们的产品经理要主导设计评估标准(rubrics)、构建Benchmark,并定义“好模型”的具体表现。研究员则围绕这些真实目标,在算法、模型能力与训练方法上持续优化。


双方并非单向上下游对接,而是共同参与模型学习系统的设计。这一模式下,研究直接落地产品,产品数据同步反哺研究,中间没有断层。我们的组织结构也保持高频迭代,几乎每两个月就会有一次调整。


白鲸实验室从去年8月Macaron AI测试版推出,到6个月前Mind Lab成立,实际上我们是否可以说Macaron AI(产品是定位个人Agent的马卡龙)完成了从产品型公司到研究型初创公司的转变?


马骁腾:是的。其实真的感谢DeepSeek。去年,我和Macaron AI的创始人Andrew就一起带着几个人复现DeepSeek R1。在这个过程中,因为我们卡不够,只能用Lora(低秩适配)这种轻量微调方式来做,因为强化学习用Lora算力成本更低。


但在复现的过程里,我们发现Lora这种方式可以在很少算力的情况下提高任务表现,并且在RL/Agent训练上几乎不损失性能。于是我们决定all in Lora,最后和ThinkingMachines同期实现了在万亿参数模型上进行高效强化学习。


白鲸实验室你们的Mind Lab是怎么解决“为业务服务”和“做长期研究”之间的资源分配问题的?


马骁腾:我们是一个后训练的Lab ,所有被选进 lab 的人都是为了让研究更好的应用到产品上。随着技术不断落地到应用产品上,Macaron AI的日均使用时长也会不断增长。比如去年8月刚上线时,用户用Macaron AI做一个应用,有时要花20-30分钟,成功率也不高。现在我们把场景做了细化,上线了多个模型,有的侧重情感,有的面向健身、睡眠、饮食,不同场景有对应的模型。现在用户只需2分钟,就可以写一个应用。


我们还在尝试通过模型训练,让用户更方便的用Macaron AI规划自己的生活。比如现在和Macaron对话时,会触发可交互的卡片,用户通过点选就能细化需求,接下来我们希望能将对话过程都简化成选项形式,所以现在还在全力冲刺,争取在4月推出我们的新版本。


白鲸实验室你们最终的研究目标是什么?


马骁腾:我们希望最终能实现“每个人都有一个LoRA”。用户拥有一个属于自己的私人模型,相比通用模型,在个性化和记忆上的体验会有很大的跃升。到那时,我们有希望冲刺千万用户目标。


白鲸实验室你们的路径是研究驱动产品、产品反哺研究,似乎和谷歌DeepMind的路径不同,DeepMind的AlphaFold、AlphaTensor、AlphaCode等成果是“论文驱动”而非“产品驱动”。哪种更适合当下?


马骁腾:把 AlphaFold、AlphaTensor、AlphaCode 这类成果简单定义成“论文驱动”,是不准确的。DeepMind 本质上也是产品驱动研究。只是这里的产品不一定是传统意义上的 2C 产品。所以我不觉得这是“论文驱动”和“产品驱动”的二选一。真正重要的是,研究有没有进入真实世界,能不能形成闭环,从这个角度看,DeepMind 做的是一种更大的产品驱动研究。


至于哪条路更适合当下,要看企业所处的位置。DeepMind 那种长期主义 + 递归进化的路径,适合少数拥有超大资源和超长时间尺度的顶级平台。


而我们这种研究驱动产品、产品反哺研究的路径,更适合今天绝大多数真正要参与 AI 竞争的组织。因为今天 AI 的竞争,已经不是单点论文突破,而是谁能更快地把研究、训练、产品和反馈接成一个闭环的竞争。


文章来自于"白鲸实验室",作者 "马舒叶"。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

3
AI搜索

【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。

项目地址:https://github.com/InternLM/MindSearch

在线使用:https://mindsearch.openxlab.org.cn/


【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。

项目地址:https://github.com/miurla/morphic/tree/main

在线使用:https://www.morphic.sh/

4
逆向大模型

【开源免费】kimi-free-api是一个提供长文本大模型逆向API的开渔免费技术。它支持高速流式输出、智能体对话、联网搜索、长文档解读、图像OCR、多轮对话,零配置部署,多路token支持,自动清理会话痕迹等原大模型支持的相关功能。

项目地址:https://github.com/LLM-Red-Team/kimi-free-api?tab=readme-ov-file

5
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner