1人顶1个Infra团队!OpenAI前CTO新招,让大模型训练跌成白菜价

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
1人顶1个Infra团队!OpenAI前CTO新招,让大模型训练跌成白菜价
7081点击    2026-01-07 18:35

当大模型竞争转向后训练,继续为闲置显卡烧钱无异于「慢性自杀」。如今,按Token计费的Serverless模式,彻底终结了算力租赁的暴利时代,让算法工程师真正拥有了定义物理世界的权利。


大模型训练,正从「作坊炼丹」进化为「工业微调」!


当OpenAI前CTO Mira Murati创立的Thinking Machines Lab推出Tinker时,一切都变了。


通过将训练拆解为forward、backward等⼀系列基本原语,算法设计终于不再受限于基础设施。


现在,训练大模型就像「函数调用」一样简单。


紧跟前沿,潞晨云微调SDK正式发布!


这是国内首个兼容Tinker范式、且全面开放的Serverless微调平台。


针对复杂且昂贵的强化学习,给出了更具成本优势的工业级解法:


  • 零门槛:开发者无需囤积显卡。
  • 全透明:Rollout → Reward → Update,全流程按Token计价。
  • 极高效:拒绝算力浪费,让每一分钱都花在产生梯度的「刀刃」上。


拥抱后训练与RL

算法层与底层算力架构的解耦


随着OpenAI o1在推理能力上的突破,业界逐渐形成共识:


大模型的能力突破已不再单纯依赖预训练(Pre-training)阶段的参数堆砌,后训练(Post-Training)特别是强化学习正成为决定模型实用价值的核心战场。


以DeepSeek‑R1为例,仅靠强化学习训练,模型在AIME数学推理基准上的pass@1从15.6%提升至77.9%,充分展示了RL在低数据量条件下即可实现大幅能力跃升,迅速成为后训练赛道的新范式。


然而,摆在算法工程师面前的问题依旧严峻。


强化学习涉及到更为复杂的系统设计,训练过程中存在一系列的问题,如多个模型的优化,数据的传递,以及模型权重的传递;一系列工程化的工作,给算法的设计带来了更多的困难,同时也对基础设施提出了更高的要求。


Tinker的出现,就是为了解决这个问题:把繁杂训练变成标准易用的API。


潞晨云把这一范式写进底层假设,算法设计与基础设施解耦——


开发者只负责定义数据与Loss函数,底层的异构集群调度、并行策略优化、容错运维等应被封装为基础设施服务,对开发者实现全托管与无感支持。


致敬创新,更致力于落地。


潞晨云微调SDK,直接兼容Tinker接口。


它在「零代码」与「裸机手写」之间,找到了最佳平衡点。从此,从算法灵感到模型落地,再无工程壁垒。


如今,开发者可以把研究精力和算力成本从集群运维还原至算法本身,感受「本地写码,云端计算」的「训练即服务(Training as a Service)」流畅体验


1人顶1个Infra团队!OpenAI前CTO新招,让大模型训练跌成白菜价


颠覆性人效比

1名算法工程师顶替庞大Infra团队


潞晨云微调 SDK 的核心思路可以概括为:算法工程师定义算法逻辑,潞晨云搞定Infra。


在传统的开发中,用户往往要花大量精力去租赁合适的算力集群、管理环境配置、调训练框架和集群运维。


但潞晨云将大模型训练拆解成了一组标准的函数原语,打通了从SFT到RL的全链路


  • Forward & Backward:处理前向传播与梯度计算
  • Optimizer Step:执行权重更新策略
  • Sample (Rollout):做推理生成和评估,使用户不仅可以完成SFT,更能轻松构建PPO、GRPO、DPO等复杂的强化学习(RLHF/RLAIF)训练流
  • Save State:管理模型检查点与状态保存


1人顶1个Infra团队!OpenAI前CTO新招,让大模型训练跌成白菜价


这意味着,用户可以在本地熟悉的Jupyter Notebook或IDE里,用最标准的Python语法像搭积木一样自由组合,掌控训练逻辑的细节。


这种模式带来了颠覆性的「人力效能比」提升——


它将原本需要运维工程师、Infra工程师、平台工程师和算法工程师紧密配合的庞大团队,简化为了「一个算法工程师」的独立闭环。


用户不再被底层繁杂的基建拖累,不再背负多职能的枷锁,也不再是黑盒填参的被动执行者,而是能够独立驾驭大规模训练流的主动设计师。


无论是监督微调(SFT)还是更复杂的强化学习(RL)Pipeline,都能通过组合这些原子函数来灵活构建。


1人顶1个Infra团队!OpenAI前CTO新招,让大模型训练跌成白菜价


为什么这种体验如此丝滑?


为了实现极致的流畅度,潞晨云基于现有的GPU云服务架构实现了一套完整的后端系统。


在具体实现中,潞晨云采⽤控制⾯与计算⾯分离设计,通过统⼀API Server管理跨地域的多个GPU计算集群,实现多云部署能⼒。


核⼼采⽤基于Future模式的异步API,所有训练操作⽀持⾮阻塞调⽤,⽤⼾⽆需等待GPU计算完成即可继续执⾏后续逻辑。


1人顶1个Infra团队!OpenAI前CTO新招,让大模型训练跌成白菜价


潞晨云微调SDK还具备智能队列系统。


即使在资源洪峰期,任务也会自动进入持久化队列(Persistence Queue),一旦底层资源可用,毫秒级启动:


  • 队列等待期间0计费
  • 仅对实际prefill + sample + train的Token量收费


彻底告别资源闲置浪费,让用户的每一分钱都用在产生梯度的刀刃上。


模型微调算力零售革命

从包机租赁到按Token计费


如果说「易用性」是后训练平台的入场券,那么「成本结构」则是决定谁能走得更远的护城河。


在传统云主机的「包机/时租」模式中,用户一直在为「过程」买单——无论是在加载数据、调试代码,还是仅仅在思考Loss函数,只要占用了显卡,计费表就在跳动。


这种模式下,开发过程中有一半以上的预算都浪费在了这些没有实际产出的「垃圾时间」里


潞晨云为微调大模型场景引入了Serverless架构,推行「按Token计费」的商业模式,将微调场景的算力服务切分到了最细的颗粒度:


  • 为价值付费


就像使用推理API一样,用户只需为Prefill(输入)、Sample(推理输出)和Train(训练)产生的有效计算Tokens量付费。


  • 其他环节全免费


本地代码调试、环境配置、数据预处理、模型Checkpoint保存……这些在传统租卡模式下分秒必争的环节,在潞晨云全部免费


  • 极致性价比


通常,RL需要同时维护高吞吐的推理集群(vLLM)和训练集群,算力成本极高。


但在潞晨云上,实测基于官方Cookbook的math_rl recipe跑通包含Rollout采样、Reward评分和PPO更新的完整RL流程(~300 steps),总算力成本仅8.61元


这意味着,个体开发者也能低成本复现RLHF/RLAIF探索。


1人顶1个Infra团队!OpenAI前CTO新招,让大模型训练跌成白菜价


技术落地的三个场景

SFT与RL同时开箱即用


这种新模式,也将彻底改变不同领域开发者的工作流:


  • 科研场景:告别资源焦虑


学术界,时间与算力往往是最紧缺的资源。研究人员不仅要面对繁琐的集群运维(Slurm/Docker 配置),还要应对昂贵的实验复现成本。


潞晨云微调SDK支持「白盒级」的科研探索,全面兼容Tinker API。


研究人员可以自定义Evaluation逻辑、通过Forward/Backward,Sample等原语精确控制后训练和强化学习Pipeline,而无需关心底层的分布式实现,让实验复现成本大幅降低。


  • 创业与独立开发:极速验证MVP


对于初创团队,「快」是生存根本。利用潞晨云微调SDK的Serverless特性,开发者无需等待资源排期。


配合极低的Token成本,实测从pip install到跑通一个包含1000条样本的SFT或RL微调实验,仅需数分钟。


这种极致的边际成本,让创业者敢于在有限预算下快速迭代Reward模型,实现真正的「低成本试错」。


  • 工业级落地:复杂架构突围


在金融、医疗等垂直领域的工业应用中,已有微调API往往难以应对复杂的异构架构与RLHF/RLAIF需求。


潞晨云微调SDK允许工程师通过train_step自由定义Loss逻辑与强化学习奖励函数。


开发者拥有对模型权重与训练细节的完整控制权实现端到端定制。


极简实战

三步上手


没有复杂的集群配置,没有冗长的Docker构建。


使用潞晨云微调SDK,训练一个大模型就像写普通Python脚本一样简单:


1. Install & Import:


pip install hpcai


2. Initialize Client:


目前已支持Qwen3系列(4B - 32B),更多模型即将上线。


import hpcai

# 初始化 LoRA 训练客户端,无需配置复杂的分布式参数

training_client = service_client.create_lora_training_client(

  base_model="Qwen/Qwen3-4B",

  rank=32

)


3. Define Training Loop & Run:


像在本地写PyTorch一样,拥有对训练循环的完整控制权。


# 训练循环:完全可控

for step in range(target_steps):

  # 前向与反向传播

  fwd_bwd = training_client.forward_backward(batch, "cross_entropy")

  # 优化器步进

  optim = training_client.optim_step(adam_params)

  # 实时获取 Loss 进行监控

  loss = fwd_bwd.result().metrics.get("loss:mean")


⽬前,微调SDK已覆盖Qwen3系列模型(4B、8B、14B、32B),支持监督学习和强化学习训练方式,并将持续扩展更多模型能力与细分落地场景,大家也可以向官方提交需求push更新。


平台还准备了开箱即用的HPC-AI Cookbook,提供包括DeepSeek-R1 GRPO算法基于Verifier的数学推理自定义Reward函数等复杂RL场景的完整代码实现。


开发者无需从零构建复杂的PPO/GRPO流水线,只需复制Cookbook中的「配方」,运行轻量级本地train.py脚本,即可驱动云端复杂的分布式RL训练流,在潞晨云上复现具备复杂逻辑推理能力的SOTA模型。


现在体验


后训练正从学术支线升级为工程主线,AI基础设施的终极形态应该是「零认知负荷」——


开发者只需描述数据与算法,其余(租卡、配环境、并行策略、运维调度、故障自愈,乃至RL涉及的一系列工程化的工作)全部下沉到用户无感。


当GPU闲置成本趋近于0,环境配置时间趋近于0,长序列RLHF也能按Token即时计费,应用创新效率直接逼近算力上限。


潞晨云微调SDK今日起全量开放:


  • 无需白名单,无需预约


  • 前150名专属链接注册即得30元使用额度(可点击【阅读原文】跳转)https://cloud.luchentech.com/account/signup?invitation_code=XZY


把资源弹性交给平台,把算法自由度留给自己,每一分钱都用在产生梯度的刀刃上!


立即体验:


https://cloud.luchentech.com/fine-tuning 


使用文档:


https://cloud.luchentech.com/doc/docs/finetune-sdk/ 


Tinker SDK: 


https://github.com/thinking-machines-lab/tinker 


DeepSeek-R1:


https://arxiv.org/pdf/2501.12948


文章来自于“新智元”,作者 “好困”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI工作流

【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!

项目地址:https://github.com/coze-dev/coze-studio


【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/付费

2
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner