原来Grok是36个小时极限卷出来的!xAI创始成员离职后放开说了

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
原来Grok是36个小时极限卷出来的!xAI创始成员离职后放开说了
8000点击    2026-03-06 15:22

连续工作36小时、员工人均睡袋……


来自xAI前创始成员的爆料表明,在马斯克手底下工作:强度是真高、压力也是真大啊。


压力之下,有人因健康问题离开。


今年年初,Grok核心架构师杨格因病退出xAI日常工作。他透露,在xAI创立期间的“长期高强度工作”和“把自己逼得太狠”导致免疫系统受损,最终使病情显现和恶化。


还有人组团向老马say goodbye。


就在杨格之后,xAI两位联合创始人一天之内相继离开(走的还是以吃苦耐劳著称的华人),一线员工集体在X上发“我从xAI离职了”,场面一时颇引人注目。


虽说这些人离开背后叠加了多重因素,但值得注意的是,他们几乎都不约而同地提到了老马的“硬核工作文化”。


包括这一次xAI前创始成员Toby Pohlen(以下简称托比哥)的爆料,也盖戳证实了这一点:


我喜欢那个“帐篷”梗图,它暗示我们都睡在办公室的帐篷里(好吧,至少我以前是睡在帐篷里的)


不过随后他话锋一转:


说“xAI很硬核”,就像说“法拉利耗油量大”一样。这话没错,但没有抓住重点。


原来Grok是36个小时极限卷出来的!xAI创始成员离职后放开说了


在他看来,“硬核”本质上只是一种手段,更重要的还在于事情的“另一面”——


围绕xAI核心目标,以前所未有的速度前进。


怎么个全速前进?托比哥通过披露Grok的诞生过程给出了最新答案:


36小时


36小时极限发布Grok


2023年6月,工程师托比哥离开待了六年多的DeepMind,转身成为xAI的创始成员。


在xAI拼搏三年多后,近期他已于X宣布离职。


而且几乎是消息发出的第一时间,老马就赶来和他道别了。


原来Grok是36个小时极限卷出来的!xAI创始成员离职后放开说了


原来Grok是36个小时极限卷出来的!xAI创始成员离职后放开说了


在告别推文中,托比哥自述接下来的首要任务是:


睡足8小时以上,然后写下我学到的所有东西(我已经列了个清单),再然后思考我接下来想做什么。


而终于有时间睡个好觉的托比哥,醒来也按照承诺分享了自己在老马手下的所获、所得——


硬核的工程文化是加速真正进步的最有效方式之一,但要警惕表演性质的牺牲,不要把痛苦误认为是进步。


换言之,“有目的地拼搏”很重要。


为了说明这点,他回顾了Grok的极限诞生过程,时间精确到分钟那种。


原来Grok是36个小时极限卷出来的!xAI创始成员离职后放开说了


2023年11月3日凌晨1点30分(太平洋时间),一个常人都在睡觉的时刻,托比哥等人收到了老马的一条“深夜来信”:


我们需要在接下来的36小时内“全力以赴”。


Grok将于明天公开发布。你无需加入公司内部群聊就能收到这条消息,它同时也被公开发布了。


而接下来的一天半里所发生的一切,则被托比哥视为:


我们需要在接下来的36小时内“全力以赴”。


Grok将于明天公开发布。你无需加入公司内部群聊就能收到这条消息,它同时也被公开发布了。


当时整个团队还只有10人,在收到老马的消息时,摆在众人眼前的仅有一个半成品——


经过一定微调的基础模型+一个半成品的用户界面。


时间紧、任务重,团队几乎是立即开干。


有人负责整理数据、有人负责改进模型、有人负责实现原始提示和红黄绿灯服务(指提示词的质量等级)……而托比哥被分到搭建生产环境基础设施。


在全靠肾上腺素、吭哧吭哧干了36小时后,没想到这个小团队还真把Grok弄出来了——


就在第二天晚上8点51分(太平洋时间),Grok成功亮相于世界AI舞台。


原来Grok是36个小时极限卷出来的!xAI创始成员离职后放开说了


托比哥表示,在过去的36小时里,团队几乎是高强度连轴转:


我们连续一天半埋头编码和发布。no drugs,甚至连咖啡因都没用,全靠肾上腺素。


而靠着这10人小团队,他们完成了Grok的一系列开发工作:


我们开发出了趣味模式,完成了整个生产系统。最重要的是,我们优化了RAG系统,使其能够通过X台实时感知世界动态(这在业内尚属首例)


而且据称当时反响不错,一片叫好:


发布会非常成功。我们邀请了几百位X平台的创作者,Grok的吐槽功能迅速走红。这是首个获准公开使用人工智能来嘲讽用户的平台


Anyway,大BOSS马斯克布置的极限任务,这群人算是出色完成了。


在托比哥看来,这一事件完美诠释了“全力以赴”能取得怎样的成就——


你的行动和成果速度远超任何局外人的预期。就拿这次行动来说,短短36小时内,(我们)就让xAI这家公司从默默无闻一跃成为行业翘楚。这一切都非常值得。


不过还是那句话,除非你理解了“为什么”,否则你很可能只是简单地复制“怎么做”,却无法取得同样的成果。


托比哥用自己的亲身经历告诉大家:


不要为了炫耀而拼命,不要为了出风头而加班,不要无缘无故地牺牲。努力过度却失败的人没有奖牌,只有胜利者才能获得奖牌。如果你所有的努力都徒劳无功,那么你或许算不上高效。


而这些,或许才是更值得我们关注的——马斯克硬核工作文化的“另一面”。


压力是真大,但成果也是真看得见


马斯克硬核工作文化的“另一面”


开头已经说了很多在老马手底下工作的难度和压力。


不说众多出来爆料的普通员工,就看xAI创始团队的人员动荡,你便足以窥见其管理风格的残酷性。


xAI成立不到三年,最初12人创始团队已走6人。


  • Jimmy Ba,多伦多大学助理教授,已于2026年2月11日宣布离开;
  • 吴宇怀,Jimmy Ba的学生,已于2026年2月10日宣布离开;
  • 杨格,Grok核心架构师、丘成桐学生,已于2026年1月官宣离开;
  • Igor Babuschkin,已于2025年8月转去做风投;
  • Christian Szegedy,已于2025年2月离开;
  • Kyle Kosic,早在2024年中加入OpenAI。


老马的逻辑从来都是如此简单粗暴,主打一个“爱憎分明”:


如果有人能把事情做成,我就欣赏他们;如果做不成,我就不欣赏。就这么简单。这不是什么个人偏好问题。如果有人执行得好,我就是他们的超级粉丝;如果执行不好,我就不是。


原来Grok是36个小时极限卷出来的!xAI创始成员离职后放开说了


其管理方式本质并不复杂,特征也很鲜明:目标足够大、时间线极度压缩、资源相对集中、结果导向凌驾一切。


换言之,它不追求“过程舒适”,在意的只有一件事:速度 × 结果


在这套筛选逻辑下,显而易见,能长期留下来的往往只有两种人——


要么极度认同目标,要么极度适应强压。


而这样一群人能做出什么,无疑是巨大且充满想象空间的。


对xAI,一个10人小团队仅用36小时,便将Grok从半成品变成硅谷主流模型之一。


对AI数据中心,仅用19天建成全球最大超算中心,创下历史纪录,而另一边OpenAI的“星际之门”项目还深陷“烂尾”争议中。


对特斯拉,从濒临破产到Model 3量产突围,堪称商业史上教科书级别的危机处理范本。


毫无疑问,还是那句感叹:


在老马手底下工作压力是真大,但成就感也是真的。


参考链接:

[1]https://x.com/TobyPhln/status/2029186603692818468?s=20

[2]https://www.businessinsider.com/xai-founding-member-extremely-hardcore-grok-debut-2026-3


文章来自于微信公众号 “量子位”,作者 “量子位”

关键词: AI新闻 , Grok , xAI , 人工智能
AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

2
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

3
prompt

【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。

项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md

在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0