开源在压榨GPU性价比!Linux 基金会掌门人揭露AI时代新技术栈:PARK!LLM 已经开始泡沫化,AI其实还没真正改变世界

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
开源在压榨GPU性价比!Linux 基金会掌门人揭露AI时代新技术栈:PARK!LLM 已经开始泡沫化,AI其实还没真正改变世界
9825点击    2025-12-09 15:08

开源在压榨GPU性价比!Linux 基金会掌门人揭露AI时代新技术栈:PARK!LLM 已经开始泡沫化,AI其实还没真正改变世界


在本周一举行的 Open Source Summit Japan 主题演讲中,Linux 基金会执行董事 Jim Zemlin 抛出了一个耐人寻味的判断:


“AI 可能还谈不上全面泡沫化,但大模型或许已经开始泡沫化了。”


3 万亿美元砸向数据中心,问题先不在模型


Zemlin 首先引用了夸张到惊人的投资数据:


摩根士丹利预计,从现在到 2028 年,全球在 AI 数据中心上的投资将高达 3 万亿美元,其中 亚马逊、谷歌、Meta 和微软等超大厂占了一半左右


他直言:


“这个规模的投资,已经超过了许多小型国家一整年的 GDP。”


这意味着一个现实判断:


绝大多数企业,甚至大多数国家,都不可能在这种高度资本密集型的基础设施竞赛中真正参与竞争。


真正的瓶颈:不是算法,是电力


Zemlin 认为,比资本投入更关键的,是 AI 推理阶段对能源的极端依赖


他给出了一组数据:


  • Google 的 AI 推理调用量 同比暴涨 50 倍


  • 从 2024 年 4 月的 9.7 万亿 tokens


  • 飙升到 2025 年 4 月的 超过 480 万亿 tokens


他同时呼应了 AWS CEO Andy Jassy 的判断:


限制 AI 进一步普及的最大约束,就是电力。


Zemlin 的总结很直接:


这轮 AI 浪潮,本质上是一场关于 GPU、电力、数据中心和物理基础设施 的竞赛,而不仅仅是模型和算法。


真正的杠杆点:开源模型与软件基础设施


在这样一个“重资产”的环境下,Zemlin 认为 开源的真正优势,恰恰不在硬件,而在模型层和软件基础设施层


过去一年里:


  • 以 DeepSeek 为代表的中国开源权重模型


  • 在性能上 大幅缩小了与商业前沿模型的差距


更重要的是:


这些开源大模型,正在被用于蒸馏更小、更行业化的模型


他举了两个例子:


  • TinyLlama(基于 Llama 3)


  • DistilBERT(基于 BERT)


开源模型快追上闭源了,但钱还被“收割走了”


Zemlin 指出,如今从能力上看:


  • 开源模型整体只比美国闭源前沿模型落后 3–6 个月


  • 对绝大多数“讲究性价比”的 AI 场景来说,已经完全够用了


但现实却是:


  • 闭源模型仍然拿走了 95% 的市场收入


  • 每年由此造成的“过度支出”规模高达 248 亿美元


这份数据来自 Linux 基金会首席经济学家 Frank Nagle 的量化研究。


因此,Zemlin 给出他的核心判断:


“我认为我们并不在 AI 泡沫中,但我们很可能正身处一个 LLM 泡沫。”


在他看来,当企业真正开始优先考虑“效率”和“成本”时,风向会迅速转变。他预测:


2026 年将进入一个由“性能 + 效率”主导的时代,而这个时代的主角将是开源生态。


LAMP 之后的下一代基础栈:PARK?


Zemlin 还提出了一个新概念:PARK 技术栈,即:


  • PyTorch


  • AI


  • Ray


  • Kubernetes


其中 Ray 是一个用于大规模 AI/ML 分布式计算的开源框架。


他的判断是:


就像当年的 LAMP 定义了互联网早期的技术栈,这一代的AI技术栈也在定义下一代 AI 计算平台。


PARK 正在迅速成为大规模 AI 部署的默认平台。


他甚至认为:


  • PARK 正在迅速成为大规模 AI 部署的默认平台


开源正在重新压榨 GPU 的“性价比”


Zemlin 将这一波变化,类比成 当年 Linux 内核在全球开发者协作下,被不断优化适配各种硬件的过程


今天在 AI 领域,类似的事情正在发生:


  • vLLM


  • DeepSpeed


这些开源工具正在持续:


  • 榨干 GPU 性能


  • 降低单位 token 成本


  • 同时压低能耗


他总结了一句非常“开源价值观”的话:


“开源最擅长的事情,就是不断拉低:

每个 token 的价格,

每一千瓦电力的成本。”


Agentic AI:真正的自动化浪潮可能在 2026 年爆发


Zemlin 随后转向他认为“正在成型的下一层”——Agentic AI(智能体系统),也就是能:规划、推理、自主执行任务的 AI 系统。


目前这一层仍处在“青少年期”,但已经开始围绕一批 开放协议 逐渐成型,包括:


  • Model Context Protocol(MCP)


  • Agent2Agent(A2A)服务器


尽管现在 真正把 MCP 用在生产环境的公司还只是少数,但 Zemlin 预测:


  • 2026 年将迎来真正的大规模企业级自动化浪潮


  • 多智能体工作流


  • 自动编排


  • 验证框架


  • 确定性与非确定性系统的混合架构


都会开始真正落地。


他特别强调:


“Agentic AI 的能力,并不取决于模型够不够大,而取决于你如何设计整个系统架构。”


“AI 其实还没真正改变世界”


Zemlin 在演讲最后泼了一盆“理性冷水”:


“尽管现在很热闹,但说实话,AI 还没有真正改变这个世界。”


他认为,真正会带来结构性变化的,是“开放协作”本身


  • 防止厂商锁定


  • 提升可信度与透明度


  • 为未来可互操作的 AI 系统提供“通用连接器”


从训练、推理到编排,Linux 基金会将与全球研究机构和产业伙伴一起,持续在这些关键层打通标准。


他在结尾说了一句很克制、但意味很深的话:


“我们很兴奋,能够以一个很小的角色参与到这个世界中来。”


同时,他也预告:


接下来还会有一系列重要发布。


参考链接:

https://thenewstack.io/linux-foundation-leader-were-not-in-an-ai-bubble/


文章来自于“51CTO技术栈”,作者 “云昭”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


2
AI工作流

【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!

项目地址:https://github.com/coze-dev/coze-studio


【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/付费

3
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md