ATOM Report:中国开源模型已经全面领先,而且差距还在扩大

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
ATOM Report:中国开源模型已经全面领先,而且差距还在扩大
8675点击    2026-04-09 14:47

RESEARCH


2026 年 4 月,Nathan Lambert 和 Florian Brand 发布了 The ATOM Report,一份关于开源语言模型生态的综合采纳度快照。这份报告追踪了约 1500 个主线开源模型的下载量、衍生模型、推理市场份额和性能数据,覆盖 2023 年 11 月到 2026 年 3 月


核心结论很直白:中国开源模型在 2025 年夏天超过了美国,之后差距持续扩大。到 2026 年 3 月,中国模型的累计下载量达到 11.5 亿 次,美国是 7.23 亿次,差距超过 4 亿


ATOM Report:中国开源模型已经全面领先,而且差距还在扩大

ATOM Report Figure 1:按地区划分的开源模型累计下载量


这份报告是谁做的,在做什么


ATOM 是 Interconnects AI 主导的项目,Nathan Lambert 此前在 Hugging Face 工作,后来创办了 Interconnects AI。数据来源是 Hugging Face 下载量和衍生模型数据、OpenRouter 推理 token 份额、Arena Elo 评分、Artificial Analysis 智能指数


追踪的是「主线开源语言模型」,不包括 embedding 模型、文生图扩散模型或其他非生成式架构。约 1500 个模型在研究期间累计产生了超过 30 亿 次下载


报告不做政策建议,只做数据呈现。政策建议在 ATOM Project 主站 atomproject.ai 另外发布


Qwen 一家比其他所有头部组织加起来还多


到 2026 年 3 月,Qwen 的累计下载量达到 9.42 亿 次,是 Llama(4.76 亿)的将近两倍。2026 年 2 月,Qwen 单月下载 1.536 亿次,超过 Meta、DeepSeek、OpenAI、Mistral、NVIDIA、Zhipu AI、MiniMax、Moonshot AI 八家加起来的 7120 万次


ATOM Report:中国开源模型已经全面领先,而且差距还在扩大

按组织划分的累计下载量:Qwen 遥遥领先


更极端的对比:Qwen3 系列中 6 个小模型(0.6B 到 8B)的月下载量,跟 Zhipu AI、MiniMax、Mistral、Moonshot AI、NVIDIA、OpenAI 六家组织的全部模型加起来差不多


ATOM Report:中国开源模型已经全面领先,而且差距还在扩大

Qwen3 小模型 vs 六家组织 + DeepSeek vs Qwen 按模型大小


唯一的例外是 250B+ 超大模型,DeepSeek 以 47% 的下载份额领先,Qwen 优势集中在 10B 以下(44%)。报告称之为「互补性专业化」


三个维度都指向同一个结论


衍生模型份额


中国从 2023 年 11 月的 10% 上升到 2026 年 2 月的 70%。欧洲从峰值 58% 跌到 4%


推理 token 份额


OpenRouter 数据。中国模型从 2024 年 11 月的 2.8% 上升到 2026 年 1 月的 72.7%。中美完全互换了位置


性能前沿


Arena Elo 和 Artificial Analysis 智能指数都显示,中国最佳开源模型在 2024 年底超过了美国,之后保持领先


ATOM Report:中国开源模型已经全面领先,而且差距还在扩大

衍生模型份额(上)+ 推理 token 份额(下)


ATOM Report:中国开源模型已经全面领先,而且差距还在扩大

Arena Elo(上)+ Artificial Analysis 智能指数(下)


性能上的小幅领先可以创造采纳度上的大幅领先,因为用户默认会选最好的那个


整个开源模型生态的增长速度本身就很惊人。2025 年 3 月到 2026 年 3 月,累计下载量从 3.39 亿增长到 20.4 亿,同比增长 6 倍。其中中国同比增长 11.9 倍,美国 4.1 倍,欧洲 2.5 倍


RAM:一个新的采纳度指标


报告提出了 Relative Adoption Metric(RAM),解决一个老问题:1.5B 小模型天然比 400B 大模型下载量高出 10-50 倍。简单比较下载量没有意义


RAM = 某模型发布后第 t 天的累计下载量 / 同参数量级 top 10 模型在同一时间点的中位数。1.0x 是持平,高于 1.0x 是跑赢


ATOM Report:中国开源模型已经全面领先,而且差距还在扩大

RAM 轨迹:100-250B 和 250B+ 区间


GPT-OSS 120B 发布 7 天后 RAM 达到 20.45x,180 天后仍然 15.35x,是 100-250B 区间的绝对异类。Nemotron Super 120B 开局 7 天 18.03x


250B+ 区间,GLM-5 表现不错(30 天 8.99x),但 DeepSeek V3.2 和 GLM 4.7 全程低于中位数。Kimi K2.5 有一个有趣的加速曲线,从 7 天 1.38x 到 60 天 7.42x


RAM 揭示了下载量看不到的现象:美国模型在中大型参数区间的相对采纳度依然很强


GPT-OSS 和 Nemotron 的 RAM 远高于大多数中国模型,说明在绝对数量被碾压的情况下,美国个别模型仍然能在特定尺寸段获得不成比例的高采纳度


几个读者可能想知道的


Meta 的处境


Llama 累计下载量排第二(4.76 亿),但在推理平台上已经从 2025 年 1 月 37.4%% 的峰值跌到了零。Llama 4 发布后没有扭转趋势


OpenAI 作为新进入者


GPT-OSS 从 2025 年 9 月才开始发布,到 2026 年春季月下载量已超过 Mistral 全部历史模型组合。RAM 显示 GPT-OSS 120B 可能成为有史以来下载量最高的模型之一


欧洲的衰落


Mistral 曾是开源生态先驱(2023 年 12 月衍生模型份额 57%%),但累计下载量从未加速到 Qwen 或 Llama 的水平


报告的局限性


HuggingFace 不是唯一分发渠道(中国还有 ModelScope),下载量不等于活跃使用。但报告的立场是:所有可用使用数据都跟 HuggingFace 下载量趋势高度相关


参考材料


The ATOM Report

https://atomproject.ai/report


The ATOM Project

https://atomproject.ai/


Nathan Lambert 推文

https://x.com/xeophon/status/2041889677343343014


文章来自于"赛博禅心",作者 "金色传说大聪明"。

AITNT-国内领先的一站式人工智能新闻资讯网站